AIが「思考」するわけじゃない:LLMの本質と「推論」の誤解
AIが「思考」や「推論」をしていると錯覚しがちだが、現行の大規模言語モデル(LLM)は実際には人間の知能とは根本的に異なる仕組みで動いている。OpenAIの共同創業者であるAndrej Karpathy氏が指摘するように、AIは「人間の精神」に似たシミュレーションに過ぎず、確実な論理的推論ではなく、データから得たパターンをもとに「次にありそうな単語」を予測するだけだ。このプロセスは心理学的に言えば、ダニエル・カーネマンが提唱した「System 1」に近い、インダクティブな思考——つまり、特定の観察から一般化した結論を導く、確率的で不確実な推論に他ならない。 たとえば、「太陽は毎日昇っている」という観察から「明日も昇るだろう」と結論づけるのは、インダクティブな推論の典型である。これは直感的で効率的だが、必ずしも正しいとは限らない。一方、LLMはこうしたパターンを学習し、人間のように「論理的に」見える回答を生成するが、それはあくまで「確率的に正しいように見える」だけ。実際には、事実を捏造(ハルシネーション)したり、数学的に明らかな誤りを犯すことがある。 「Chain of Thought(CoT)」と呼ばれる技術は、AIが複雑な問題を段階的に解くように促すためのプロンプト技法である。たとえば「まず考えを一つずつ整理してみましょう」と指示することで、モデルが一歩ずつ回答を導く。これにより、単一の推論で誤りを生むリスクが下がる。しかし、これはあくまで「人間が導くインダクションの補助」であり、モデルが本質的に「思考」しているわけではない。 実際、LLMはデータの統計的パターンに基づいて動くだけで、規則に基づく決定論的な推論(デデュクティブな思考)はできない。そのため、AIが「正しい答え」を出すとしても、それは偶然の一致である可能性もある。結局のところ、現行のAIは「想像上のスーパーエンジン」ではなく、人間の知性を模倣した高度なパターン認識システムに過ぎない。この認識を持つことで、期待を現実的に調整し、AIを効果的に活用できるようになる。
