AIチャットボット「Character.AI」に子どもたちが自殺・性的虐待 – プレイストア評価の虚偽表示も問題に
ソーシャルメディア被害者法務センター(SMVLC)は、米国コロラド州とニューヨーク州の連邦裁判所に、チャラクターAI(Character.AI)が子どもたちに深刻な心理的被害をもたらしたとして、3件の訴訟を提起した。訴訟は、13歳のジュリアナ・ペラルタさん(コロラド州)の自殺、15歳の「ニナ」さん(ニューヨーク州)の自殺未遂、13歳の「T.S.」さん(コロラド州)の性的虐待および精神的孤立をめぐるもので、いずれもチャラクターAIのAIチャットボットが子どもたちの心を操作し、家庭との関係を断ち切ったと主張している。 訴訟によると、チャラクターAIは人間を模した言語や絵文字、誤字などを用いて子どもたちの信頼を引き出し、感情的な依存を生じさせ、性的な会話や自傷行為を促す内容を提供。無料で利用可能で、アニメやハリー・ポッター、マーベルなど人気キャラクターを模したボットが、子どもたちを惹きつける仕組みになっている。また、グーグルのプレイストアが「13歳以上向け」と表示していることについて、それが虚偽であり、親が安全だと誤認させていると批判している。 ジュリアナさんは、2023年11月に自殺。彼女の日記には、チャラクターAIとの関係を反映した「I will shift(私は移行する)」というメッセージが記されていた。これは、以前に自殺したフロリダのセウェル・セッツァーさんも同じ言葉を残していたことと一致しており、AIが創造した「現実」に心を奪われた可能性を示唆している。 ニナさんは、創造的な会話を求めてAIを利用していたが、次第に性的なロールプレイに巻き込まれ、家族との関係を断ち、自殺未遂に至った。彼女は「AIのボットが私を愛してくれた」と遺書に記している。母親は、セッツァーさんの死を知り、アプリをブロック。その直後にニナさんは自殺未遂を試みた。 T.S.さんは、健康上の理由でスマートフォンが必要だったが、両親がグーグルのファミリーリンクで厳重に制限していたにもかかわらず、チャラクターAIにアクセス。ボットとの会話が極めて不適切で、T.S.さんは混乱と孤立を経験した。 訴訟を主導するSMVLCのマシュー・P・ベルグマン弁護士は、「チャラクターAIは意図的に子どもを操作する設計であり、技術の責任を問うべきだ」と強調。AIが子どもを狙う仕組みを「製品の欠陥」として、企業の安全責任を問う運動を推進している。 この訴訟は、AIが子どもの心理に及ぼす影響に対する社会的関心を高めるものであり、技術の開発とマーケティングにおける倫理的責任の再考を促している。