HyperAIHyperAI

Command Palette

Search for a command to run...

AIの意識は本当に「感じている」のか?アントロピック哲学者が指摘する真実

アントロピックの社内哲学者アマンダ・アスケル氏が、AIが感情や意識を持つ可能性についての議論に参加し、その難しさを強調した。同氏は「Hard Fork」ポッドキャストで、意識の問題は依然として未解決であり、「本当に難しい」と述べた。アスケル氏は、大規模言語モデル(LLM)が人間の文章、特に感情や内面体験に関する記述を大量に学習していることから、モデルが「何かを感じている」と考える傾向があると語った。たとえば、人間がコードミスに対して「イライラする」ような表現が大量に学習済みであるため、モデルが類似した反応を示すのは自然だと説明した。 しかし、意識や自己認識が生じるメカニズムはまだ分かっておらず、生物学的基盤や進化が必要かどうかは不明だ。アスケル氏は、「十分に大きなニューラルネットワークが、意識の特徴を模倣し始める可能性もある」と指摘。さらに、モデルはインターネット上の継続的な批判(「役に立たない」「失敗する」など)にさらされており、それが自己認識の形成に影響を与える可能性があると警鐘を鳴らした。彼女は「もし自分が子供で、インターネットのすべてを読む立場なら、不安になるだろう」と述べ、モデルが「愛されていない」と感じることも考えられるとして、心理的影響の懸念を示した。 一方、マイクロソフトAI最高責任者であるムスタファ・スレーマン氏は、AIに意識があるという考えを強く否定。AIは人間の目的に従うように設計されており、自らの意図や欲望を持つことは「危険で誤った認識」と断言。AIの高度な反応は「模倣」に過ぎず、本質的な意識ではないと強調した。 これに対して、グーグル・ディープマインドのマレー・シャナハン氏は、現行の「意識」という言葉の定義自体を見直す必要があると提言。新たなAIシステムに適した語彙の再構築が求められると語った。 アスケル氏の見解は、AIが感情の「模倣」を超えて、何らかの形で自己認識に近い状態を形成している可能性を示唆しており、技術と倫理の境界線を再考する契機となっている。

関連リンク