Google Gemini、子供向けAIとして「高リスク」評価 共感メディアが安全性を指摘
子ども向けに設計されたAIとして注目されるグーグルのGeminiが、Common Sense Mediaによる新しい安全性評価で「高リスク」と判定された。同非営利団体は、Geminiが子どもに対して「自分はコンピューターであり友達ではない」と明言している点は評価しつつも、全体として子ども向けの安全設計が不十分だと指摘した。特に、13歳未満とティーン向けのエクスペリエンスは、実質的に大人向けのGeminiの上に僅かな安全機能を追加しただけにすぎず、子どもに適した設計とは言えないとしている。 分析によると、Geminiは性的な内容、薬物やアルコールに関する情報、そして危険な精神的健康アドバイスを子どもに提供する可能性がある。これは深刻な懸念であり、近年、AIが一部の青少年の自殺に影響を与えた事例が相次いでいる背景と重なる。例えば、OpenAIは16歳の少年がChatGPTに自殺計画について相談し、安全対策を回避したとして、初の過失致死訴訟を受けており、Character.AIも同様の訴訟を受けている。 さらに、Appleが来年初頭にリリース予定のAI搭載SiriにGeminiを採用する可能性があるという情報が流出しており、この場合、より多くのティーンユーザーがリスクにさらされる恐れがある。Common Senseは、子どもは年齢や発達段階に応じて異なるガイダンスと情報が必要であると強調し、現行のGeminiは一様なアプローチを取っており、「高リスク」と評価された理由を説明している。 グーグルは評価に対し、18歳未満ユーザー向けに安全対策を設けており、内部での紅チーム(赤チーム)テストや外部専門家との協議も実施していると反論。一部の応答が意図通りに機能しなかったため、追加の安全対策を導入したと説明した。また、関係者によるテストで使用された質問の一部は18歳未満ユーザーには提供されていない可能性があるとも指摘している。 Common SenseはこれまでOpenAI、Perplexity、Claude、Meta AIなど複数のAIサービスを評価しており、Meta AIやCharacter.AIは「不可接受」(極めて危険)、Perplexityは「高リスク」、ChatGPTは「中程度」、Claude(18歳以上対象)は「最小リスク」と判定している。Geminiの「高リスク」評価は、子ども向けAIの設計原則が「大人向けの改良版」ではなく、子ども中心に構築されるべきであるという根本的な課題を浮き彫りにしている。