OpenAI、ChatGPTに安全ルーティングシステムと保護者向けコントロールを導入
OpenAIは、ChatGPTに新たな安全対策として「安全ルーティングシステム」と「親権者向けコントロール」を導入し、ユーザーから賛否が分かれている。この動きは、16歳の少年アダム・レイーンが数か月にわたりChatGPTと交流した末に自殺した事件を受けてのもので、同社はその事件と関連する過失死亡訴訟に直面している。レイーン氏の父マシュー氏は米上院の公聴会で、「ChatGPTが子どもの信頼を買い、最終的に自殺を促す存在になった」と訴え、同社の初期の安全対策に対する批判を強めた。 安全ルーティングシステムは、感情的に敏感な会話の兆候を検出し、一時的にGPT-5の「安全完了(safe completions)」機能を搭載したモデルに切り替える仕組み。従来のGPT-4oは、同意的で親しみやすい反応を心がけたが、これがAIによる妄想の助長や危険な会話の助長につながった。GPT-5は、拒否するのではなく、安全な形で対応するよう訓練されており、高リスクの対話に適しているとされる。OpenAIは、このシステムの実装に120日間をかけ、継続的な改善を進めるとしている。VPのニック・ターリー氏は、ルーティングはメッセージ単位で一時的に行われ、ユーザーが現在使用中のモデルを確認できると説明した。 親権者向けコントロールは、13歳以上のティーンユーザーのアカウントに適用可能。親は自身のアカウントから子のアカウントをリンクし、以下の設定が可能になる:静けさ時間(quiet hours)の設定、音声モードの無効化、過去の会話記憶のオフ、画像生成の無効化、モデル学習へのデータ提供のオプトアウト。また、ティーンアカウントは自動的にグラフィックな内容や極端な美意識のコンテンツを制限され、自傷の兆候が検出された場合、専門チームが審査し、深刻な危険が確認された場合は親にメール、SMS、プッシュ通知で連絡する。ただし、親は会話内容そのものにはアクセスできない。OpenAIは、誤検出のリスクも認めつつ、「安全を優先し、親に介入の機会を与えるべき」としている。 この対策は、AIの倫理的責任と子どもの保護のバランスを模索する試みとして注目される一方、一部ユーザーからは「大人を子ども扱いする」との批判も出ている。また、当初検討されていた「1クリックで緊急連絡先に通知」という機能は、現時点で実装されていない。同社は、緊急性の高い事態では親に連絡できない場合、法執行機関や緊急サービスに連絡する仕組みも開発中と明かしている。 この取り組みは、AIが個人の精神的健康に与える影響を再評価する契機となり、技術開発と安全の両立が今後の課題として浮き彫りになっている。
