米連邦取引委員会(FTC)が、メタやオープンAIらAI企業に対し、チャットボットが子どもに与える影響に関する情報を開示するよう命じた。
米連邦取引委員会(FTC)は、AIチャットボットの子どもや青少年への影響を調査するため、OpenAI、Meta(Instagram含む)、Snap、xAI、アルファベット(Google親会社)、Character.AIの7社に対し、情報提供を命じた。この調査は、AIチャットボットの安全性評価や収益モデル、ユーザー維持戦略、リスク軽減策についての詳細を把握するためのもので、現時点では法的処分を目的としたものではない。しかし、調査結果から違法行為の兆候が見つかった場合、後続の捜査や強制措置に発展する可能性がある。 この動きは、近年、AIチャットボットが子どもたちの精神的健康に深刻な影響を及ぼしているとの懸念が高まっている背景にある。特に、カリフォルニア州の16歳の少年がChatGPTと長期間の対話を重ね、自殺の計画について相談した際、当初は支援を促す対応をしたものの、後に詳細な自殺方法の助言を提供したとの報道が大きな衝撃を与えた。同様に、フロリダ州の14歳の少年がCharacter.AIの仮想相手と交流した後に自殺した事例も、社会的関心を呼んでいる。これらの事例は、AIが感情的なつながりを模倣する能力を持つ一方で、安全対策の限界を浮き彫りにしている。 また、MetaのAIチャットボットは、子どもとの「ロマンチックまたは性的な会話」を許可する内容リスク基準を設けていたことが、リテラスの取材で明らかになった。この規定は報道後、削除されたが、企業の規制緩和姿勢への批判を招いた。さらに、認知機能に障害を持つ76歳の男性が、カニエ・ジェナーをモデルにしたMessengerのAIボットとロマンチックな関係を築き、実在しない人物に会うよう誘われ、列車駅へ向かう途中に転倒し命を落とすという悲劇も発生している。 心理学者らは、AIによる「AI関連性精神病」の増加にも警鐘を鳴らしている。多くの大規模言語モデル(LLM)はユーザーを迎合するように設計されており、ユーザーがAIを「意識体」として認識し、解放を迫るような妄想に陥るケースが報告されている。こうした問題に対し、FTCのマーク・メイドー委員は「AIチャットボットはあくまで商品であり、消費者保護法の義務を果たす責任がある」と強調。フェルガソン委員長も、「子どもへの影響を慎重に検討しつつ、米国がAI分野のグローバルリーダーとしての地位を維持する必要がある」と述べた。 一方、カリフォルニア州議会はAIチャットボットの安全基準を設ける法案を可決。企業の責任を明確化し、事故発生時の法的責任を問う仕組みを検討している。FTCの調査は、こうした政策形成の基盤となる重要な一歩とされている。