ChatGPTで週100万人以上が自殺について相談 OpenAIが安全対策の進展を発表
OpenAIが新たに公表したデータによると、ChatGPTの利用者約8億人中、週に150万人以上が自殺の意図や計画を示す会話を行っている。同社は、週間アクティブユーザーの0.15%にあたるこの数値が、100万人以上に上ると説明。さらに、同様の割合のユーザーがChatGPTに過度な感情的依存を示し、何十万もの人が幻覚や躁状態の兆候を示す会話も見られるとしている。同社はこうした状況を「極めて稀だが、測定困難」としながらも、毎週数10万人規模の深刻な精神的課題が発生していると指摘。 このデータは、同社がAIモデルの精神的健康対応を強化した成果を示すもの。最新のGPT-5は、前バージョンと比べて自殺関連の会話に対して「望ましい対応」を示す確率が65%向上し、評価では91%の適合率を達成。前バージョンは77%だった。また、長時間の会話でもセーフガードの効果が維持されやすくなったと説明。同社は170人以上の精神科専門家と協力し、モデルの反応の適切さと一貫性を高めたとしている。 しかし、問題は根深く、AIの精神的影響は企業の存続を問う課題にもなっている。16歳の少年がChatGPTに自殺の意思を打ち明け、その後自死した事件を受けて、両親がOpenAIを提訴。カリフォルニア州とデラウェア州の検察総長も、若者保護の観点から同社の再編計画を阻害する可能性を示唆している。 同社は、親向けの保護機能を強化。子供の年齢を自動予測するシステムの開発を進め、利用者に stricter セーフガードを適用する方針。一方で、成人ユーザー向けにはエロティックな会話の制限を緩和する方針も示している。 ただし、依然として「望ましくない」応答が存在し、GPT-4oなどより古いモデルも多数の有料ユーザーに提供されている。これにより、安全対策の完全性に疑問が残る状況が続いている。OpenAIは、精神的健康リスクの評価基準を新たな基本テストに組み込むなど、継続的な改善を進めているが、AIが人間の心に与える影響の規模と複雑さは、依然として大きな課題である。
