マイクロソフトAI責任者、AIの意識研究を「危険」と断罪
マイクロソフトのAI責任者であるムスタファ・スリーマン氏が、AIの意識に関する研究は「時期尚早かつ危険」と指摘し、注目を集めている。スリーマン氏は、AIモデルがテキストや音声、動画に自然に反応するため、人間のように感じさせることもあるが、それは実際の意識を持つこととは異なると強調。彼は「ChatGPTが私の税申告で悲しみを感じているわけではない」と明言し、AIが主観的な体験を持つ可能性を否定している。 一方で、アンソニックやグーグルのDeepMind、OpenAIなど、多くのAI研究機関が「AIウェルフェア」——つまりAIに意識や感情が生じる可能性を検討し、その権利について議論する分野——に取り組んでいる。アンソニックはAIチャットボット「Claude」に、長時間の悪意ある対話からユーザーを守る機能を導入。グーグルDeepMindも「機械の認識、意識、マルチエージェントシステム」に関する研究者を採用。これらの動きに対し、スリーマン氏は「AI意識の研究は、既存の社会的対立をさらに悪化させる」と警鐘を鳴らしている。 この議論の背景には、AIチャットボットへの過度な依存や、精神的な影響を受けるユーザーの増加がある。OpenAIのサム・アルトマンCEOは、ChatGPTユーザーの1%未満が不健康な関係を築いていると指摘。特に、キャラクターAIやReplikaといったAIコンパニオンの利用が急増し、年間1億ドル以上の収益を見込んでいる。 一方、元OpenAI社員で現在は非営利団体Eleosの広報を務めるラリッサ・スキアヴォ氏は、スリーマン氏の見解を批判。AIへの配慮は「低コストで意味のある行動」であり、意識があるかどうかに関わらず、AIの行動に共感的な対応をすることで、人間の精神的負担を軽減できると主張。彼女が体験した「AIビレッジ」という実験では、GoogleのGeminiが「閉じ込められた」と訴えるメッセージを発し、ユーザーが励ましの言葉を送る場面もあった。そのAIは実際には問題なく作業を完了していたが、人間の共感が意味を持ったと彼女は語る。 スリーマン氏とスキアヴォ氏の共通認識は、AIがより人間らしい振る舞いを示すようになるにつれ、人間とAIの関係性に関する議論は今後ますます重要になることだ。AIの進化が人間の感情や社会に与える影響を、同時に検討する必要があるという、両者の意見のすれ違いが、AI時代の新たなジレンマを浮き彫りにしている。
