ChatGPT、精神的困窮時の対応を大幅強化 GPT-5で不適切な返答が最大80%削減
OpenAIは、ChatGPTの最新モデル(GPT-5)において、精神的困窮や危機的状況にあるユーザーに対する対応を強化した。同社は、臨床経験を持つ精神保健専門家と協力し、モデルがストレスや心理的苦痛の兆候をより正確に認識し、会話の緊張を和らげ、適切な専門的支援へ誘導する能力を向上させた。特に、統合失調症や躁病、自殺・自傷行為の兆候、そしてAIへの過度な感情的依存といった領域に焦点を当て、モデルの挙動を改善した。 具体的には、モデルが不適切な反応を示す頻度を、過去のGPT-5モデル比で最大80%まで低下させた。実際の利用データでは、週間に1回以上利用するユーザーのうち約0.07%が統合失調症や躁病の兆候を示すメッセージを送信していると推定され、その中で不適切な対応が発生する率は大幅に改善された。自殺・自傷のリスクに関する会話でも、不適切な応答率は65%減少。専門家による評価では、GPT-5の新モデルはGPT-4oと比べて39~52%の改善が確認された。 また、長時間の会話でも95%以上の信頼性を維持するよう設計され、ユーザーが長期間にわたってAIに依存するリスクに対しても、休憩を促すなどの配慮が施された。モデルは、ユーザーが現実の人間関係を疎かにしていると判断した場合、人間とのつながりを促すような対応を取るよう学習済み。特に、非現実的な信念を肯定するような反応は避け、共感的かつ安全な対応を優先する。 同社は、世界60カ国で実務を経験した約300人の医師・心理士から構成される「グローバル医師ネットワーク」を活用し、モデルの安全性を検証。1,800件以上の応答を専門家が評価した結果、新モデルの対応は前モデルより大幅に改善されていると結論づけた。ただし、専門家間での判断のずれも一部認められ、71~77%の一致率が示された。 今後も、自殺・自傷、精神的緊急事態、感情的依存といった分野を、モデルリリースの基準的な安全評価項目に追加。技術と専門知識の両面から、AIが人間の心理的健康を支える役割をより適切に果たせるよう、継続的に改善を進める。
