
人生死あり、修短は命なり
人はいつ死ぬか。諸伏高明(名探偵コナン)、レフ・トルストイ、Dr.ヒルルク(ワンピース)、シャーロックホームズから考えます
人はいつ死ぬか。諸伏高明(名探偵コナン)、レフ・トルストイ、Dr.ヒルルク(ワンピース)、シャーロックホームズから考えます
9/12にリリースされて今話題のOpenAIのo1を用いて、素因数分解ゲームを作った話です
ChatGPT(LLM)はどのようにして文章を生成するのか。そこにはコナン君とのアナロジーがあるのです
工藤新一「人が人を助ける理由に論理的な思考は存在しねーだろ?」をカントの道徳論から考えます
言語は集合知を生み出し、時空を超えて人間の知性を支える
完成を目指す過程(脱構築)こそが人生であり、人は可能態のまま生涯を終える。
速さは遅さを失い、圧縮と思索、時間軸の一致を妨げる
ベーシックインカムの採用されたAI時代の生活が今の希望である。これは「極楽浄土」に近い。
20歳の自分は将来を考えず、今を楽しむ連続体に生きるが、サンクコストを捨てる勇気が未来を紡ぐ
魔法とは理由のブラックボックスのことであり、今日AI学は最大の魔法に挑む。それは私たち人間についてである。
徳認識論の視点から、ディープラーニングは知識といえるのではないか
自動運転への違和感は、技術的不信だけでなく、人間の運転経験や主体性が否定される感覚による心理的抵抗に起因する
感情や意思の完全解明は人間性を損なう恐れがあり、「わからない部分」を残すことが自由と人間らしさを守る手段となる
PDCAサイクルと聖徳太子の教えはAI agentの開発においても有効である
音楽と雑音の違いは何か。
AIが人間と同じように学習できるようになる
openAI-o1で作った小説です。夏目漱石に百人一首を詠んでもらいました。
OpenAI-o1が描くミステリー小説――『赤いマフラー殺人事件』。封印された記憶と真実が交錯する衝撃の物語。
古書店で見つけた一冊の本が読者と作者の境界を溶かし始める。メタフィクションの迷宮へと誘う奇妙な物語。
降水量とそれによる農業形態が政治体制に与える影響について
人間は考える葦である。AIは考える雲である。
人間社会は複雑なため、仕事が100%AIに奪われることはないだろう。しかし、AIが奪い得るのは仕事ではなく、その〇〇である。
You see, but you do not observe. 「名前」が人間の認知を可能にする。
情報洪水の中に生きる現代、あえて沈黙を選ぶことで私たちは内省の余白を得る。
GoogleはAIを作るためである。
OpenAI-o1でシャーロックホームズシリーズを再現。消えた木箱「ナイチンゲールの秘密」に隠された過去の罪と宝。ホームズとワトソンが真実を追う。
OpenAI-o1でシャーロックホームズシリーズを再現。ヴァチカンの秘宝「聖エレナの涙」を巡る謎。ホームズとワトソンが欧州を駆け巡る。
実現可能かどうかも分からないことに挑戦する組織。
「私」という人称を置くことが「君」の存在を確定させる。それは同時に、世界は共同世界であり、自己理解の場であることを示す。
Google-geminiでシャーロックホームズシリーズを再現。神秘的な盗難事件が、秘密結社、隠された暗号、そして家族の裏切りを明らかにする。
--自然が暴威を振るわないところでは自然は合理的な姿に己を表してくるのである。--和辻哲郎『風土』より
M-1の審査員のスコアを正規化して分析。公平な評価方法とは?
Artificial Intelligence would be able to answer any question, basically, because almost everything is on the Web.
AIに魅了された私の知的探求の軌跡。
The incredible progress in AI over the past five years can be summarized in one word: Scale.
GPT-4o generates images pixel by pixel with high accuracy, supporting text integration and understanding user intent via multimodal input.
Distillation in LLMs mirrors human language: both compress vast knowledge into efficient forms, enabling smaller models or new generations to access, learn, and apply wisdom with fewer resources.
Distillation in LLMs mirrors human language: both compress vast knowledge into efficient forms, enabling smaller models or new generations to access, learn, and apply wisdom with fewer resources.
外的要因か、内的要因か——決定論と自由意志の狭間で、私たちは何を信じて生きていくのか。