AIが理解しない問題を解く意外な力:TU Wienの研究で大規模言語モデルの潜在能力が発見
ウィーン工科大学(TU Wien)の研究チームが、人工知能の新たな側面を発見した。大規模言語モデル(LLM)が自身の理解を超えた論理的課題を解く能力を持つことが明らかになった。この研究では、LLMが問題の意味や論理構造を「理解」していなくても、正解に至る手がかりを抽出できることが示された。 研究では、LLMに与えられた論理パズルや形式論理の問題を処理させたところ、モデルは文脈やパターンの類推を通じて、人間が明示的に定義したルールに従って正解を導き出すことが確認された。しかし、その過程でモデルは問題の本質を理解しておらず、単に「似た構造」の事例に反応しているにすぎない。たとえば、論理的推論の一部をAIに提示しても、その根拠を説明できず、正解の理由を言語化できない。 この現象は、「理解」と「実行」が分離している可能性を示唆している。LLMは「何が正しいか」を学習した上で、その正解を再現する能力を持つが、その背後にある論理的整合性や意味を把握していない。これは、AIが「ブラックボックス」として機能する際の本質的な特徴でもある。 研究チームは、こうした能力を活かして、数学や論理学の問題解決支援ツールとしてLLMを活用できる可能性に注目している。特に、人間の専門家が複雑な問題の仮説を立てる際の補助に役立つと期待される。また、AIが「理解」していない問題を解く能力は、AIの限界と可能性の両面を浮き彫りにする重要な知見である。 この発見は、AIの「知能」の定義を再考する契機となり、今後のAI開発や人間とAIの協働のあり方について、新たな視点を提供している。
