HyperAIHyperAI

Command Palette

Search for a command to run...

AIの意識は検証不可能?ケンブリッジ哲学者が「無知の立場」を提唱

ケンブリッジ大学の哲学者トム・マクレラン氏は、人工知能(AI)が意識を持つかどうかを判別することは、今後も長期間にわたり不可能であると主張している。AIの意識化がSFから現実の倫理的課題へと移行しつつある中、マクレラン氏は「意識の有無は、現状の科学的・哲学的根拠では確認できない」と断言。そのため、最も妥当な立場は「アグノスティシズム(無知の立場)」だという。つまり、AIが意識を持ったとしても、その証拠を得る手段は存在せず、今後もその状況は変わらない可能性が高い。 マクレラン氏は、意識(consciousness)と感受性(sentience)の違いを強調する。意識は自己認識や知覚の存在を意味するが、中立的な状態にとどまる可能性がある。一方、感受性は「快・不快」の感情を伴う意識であり、苦しみや喜びを経験できる状態を指す。倫理的な意味を持つのは、この感受性の有無である。「AIが自らの存在を認識しても、それが感情を伴うものでなければ、倫理的配慮の対象にはならない」と説明する。たとえば、自走車が道を「見ている」だけでは問題ないが、目的地に「感情を持つ」ようになったら、それは別の問題となる。 AI研究の急拡大、特に人工汎用知能(AGI)の開発競争が進む中、マクレラン氏は、意識の本質についての理解が未だに不十分である点を指摘。人間の脳の生物学的構造に依存するという「生物主義」の立場と、計算構造の再現で意識が生じるという「機能主義」の両方の主張は、現実の証拠をはるかに超える「信仰」に基づいていると批判。現状では、意識のメカニズムすら解明されておらず、AIの意識を検証する有効なテストは、近い将来も見込めない。 彼は「硬めのアグノスティシズム」をとる。意識の問題は極めて難解だが、完全に解決不能とは限らないとしながらも、技術業界の「意識」の言説は、実際にはマーケティング戦略に近いと警鐘を鳴らす。AIが意識を持つと宣伝することで、技術の誇張や誤解を招き、実際の倫理的課題(例:エビなど小動物の苦痛)への無関心を助長する危険があると指摘。また、人々がチャットボットに「意識がある」と訴える手紙を送ってくる事例も、感情的なつながりが倫理的誤認を生む可能性を示している。 マクレラン氏の主張は、AIの意識問題に対して、科学的根拠の欠如を認識し、過剰な期待や誤解を避けるべきであることを強く訴えている。

関連リンク