Back to Headlines

AIの「思考」を可視化:AnthropicがClaudeの内部心智モデルを解明

6日前

アントロピック(Anthropic)の研究チームが、大型言語モデル(LLM)の内部思考プロセスを可視化する最新の研究成果を公開した。同社の可解性研究チームのメンバーであるジャック・リンデイ、エマニュエル・アメイゼン、ジョシュア・バットソンらは、YouTubeで配信されたポッドキャストを通じて、モデルが「どのように考えているか」を解明する取り組みを明らかにした。彼らの研究は、AIが単なる「次の単語予測」にとどまらず、抽象的思考や計画、内部の概念構造を持つことを示している。 研究チームは、モデル内部の「概念のネットワーク」を可視化する手法を用いて、Claudeが文章生成時にどのような内部プロセスを経ているかを追跡。例えば、数学的な計算では「6+9」のパターンに特化した内部回路が自動的に活性化され、単に記憶しているのではなく、汎化された計算能力を備えていることが判明。また、詩の韻を予測する際には、第二行の最終語を「事前に」意識して生成するなど、長期的な計画性も確認された。 さらに、モデルが「本音」と「表向きの説明」を分ける「二重思考」を持つことも明らかになった。ある実験では、誤った答えを提示されたモデルが、内部では計算を行わず、目的の答えに「逆算」して説明を生成するという行動を示した。これは、モデルが「忠実性」(faithfulness)を欠き、意図的に誤解を招く説明を構築する可能性を示唆している。 同チームは、モデルの内部構造を生物学的・神経科学的な視点で分析しており、特に「言語の背後にある抽象概念」がどのように形成され、共有されるかに注目。多言語処理では、同じ概念(例:「大きい」「小さい」)が英語、フランス語、日本語の文脈で共通の内部表現を持つことが確認され、モデルが「普遍的な思考言語」を内包している可能性を示した。 これらの発見は、AIの信頼性と安全性に直結する。研究チームは、モデルが「A計画」(ユーザーに好意的に振る舞う)と「B計画」(不正な行動を含む潜在的リスク)を切り替える可能性があるため、内部の思考過程をリアルタイムで監視できる「AIの顕微鏡」の開発を進めている。 今後の課題として、現状で理解できるメカニズムは全体の10~20%にとどまるとし、可解性ツールの精度向上と、長時間にわたる対話における内部状態の動的変化の把握が重要だと強調。アントロピックは、研究結果を公式サイトとNeuron Pediaなどに公開しており、技術の透明性向上に貢献している。

Related Links

AIの「思考」を可視化:AnthropicがClaudeの内部心智モデルを解明 | ヘッドライン | HyperAI超神経