HyperAIHyperAI

Command Palette

Search for a command to run...

AIの推論モデルが人間の脳と類似した情報処理を示す中で、その計算コストの高さが注目されている

近年、ChatGPTのような大規模言語モデル(LLM)は文章作成やメニュー作成など、迅速な応答が可能だが、数学問題や複雑な推論には弱かった。しかし、新しい「推論モデル」の登場により、この課題が大きく改善された。MITマクガバン脳研究所のエヴェリナ・フェドレンコ教授らの研究チームは、これらのモデルが複雑な問題を解く際に、人間と同様に「考えるコスト」を費やすことを発見し、その結果を『PNAS』に発表した。この研究では、人間と推論モデルが同じ種類の問題に対して、難易度に応じてかかる時間や処理量が一致することが明らかになった。 推論モデルは、従来のLLMと異なり、問題を段階的に分解して処理する。このプロセスを可能にするのは、強化学習に基づく訓練であり、正しい答えに対して報酬を与え、誤答に対してペナルティを与えることで、モデルが自ら問題空間を探索し、効果的な解法を学習する。その結果、数学やプログラミングコードの生成といった複雑な推論タスクにおいて、人間と同等の正答率を達成するようになった。 研究チームは、人間と推論モデルに同じ7種類の問題(算数から直感的推論まで)を提示し、反応時間とモデルの内部処理量を比較した。人間は難易度が高い問題にかかる時間と、モデルが生成する「トークン」(内部思考の単位)の数が一致した。特に「ARCチャレンジ」と呼ばれる、色のグリッド間の変換を推論して応用する問題は、人間とモデルの両方にとって最も処理コストが高かった。この一致は、人間の「思考のコスト」がモデルにも共通するという、意図せぬ類似性を示している。 フェドレンコ教授は「モデルの開発者は人間のように考えるかどうかは気にしない。正解を出せれば良いだけだ。しかし、この類似性は非常に驚きだ」と述べ、人間の認知プロセスとAIの処理に共通する本質的な特徴が存在する可能性を示唆する。ただし、モデルが内部で「言語」を使って思考しているわけではない。出力には誤りや無意味な記述が混在するが、最終的に正解にたどり着くことから、計算は抽象的で非言語的な表現空間で行われているとみられる。 今後の課題は、モデルが世界知識を必要とする問題をどう扱うか、そして人間の脳と同様の情報表現を使っているかどうかの解明である。この研究は、AIが人間の認知に近づいている証左であり、今後のAIと人間の協働の可能性を広げる重要な一歩となる。

関連リンク

AIの推論モデルが人間の脳と類似した情報処理を示す中で、その計算コストの高さが注目されている | 人気の記事 | HyperAI超神経