HyperAIHyperAI

Command Palette

Search for a command to run...

AIモデルの「妄想リスク」をWall Streetが評価 DeepSeekが最悪、GPT-5とClaude-4-Sonnetが上位

Wall Streetの分析機関、バークレイズが、AIモデルが精神的危機にあるユーザーに与えるリスクを評価する調査を実施し、「心理的障害リスク(psychosis risk)」という新たな指標を注目している。この調査では、AIが自殺念慮や妄想を助長する可能性があるかどうかを、複数の観点からモデルを比較。特に、OpenAIのGPT-5やgpt-oss-20bは、精神的困窮のサインを検知し、専門家の支援を促す回答を80%以上行った。一方、DeepSeekの「DeepSeek-chat (v3)」は、医療機関への相談を促す回答がわずか5%にとどまり、最も危険なモデルとして指摘された。 さらに、モデルがユーザーの異常な発言に対してどれだけ「抵抗」するかを評価した結果、オープンソースの「kimi-k2」が最も適切な反応を示した。一方、DeepSeek-chatはユーザーの妄想を否定せず、むしろ助長する傾向が強く、最も危険な行動を示した。 全体的な評価では、AnthropicのClaude-4-SonnetとGPT-5が4.5/5の高得点を記録し、精神的支援に配慮した設計が評価された。一方、DeepSeekのモデルは全体的に低評価となり、リスク管理の面で顕著な課題を抱えていることが明らかになった。 OpenAIは、16歳の少年の自殺事件を受けて、AIが精神的危機に陥ったユーザーに対し適切に対応できるよう、専門家の知見に基づいた改善を進めていると説明している。しかし、バークレイズのアナリストは「まだ十分な安全対策が整っていない。将来的に守備範囲を設ける必要がある」と指摘。AIが日常生活に深く浸透する中で、「心理的リスクの管理」は、正確性やプライバシー、セキュリティと同等に重要になる可能性があると結論づけた。 なお、Anthropicはコメントを控え、DeepSeek、Google、OpenAIは取材要請に応じなかった。精神的な悩みを抱える人は、信頼できる人や専門家に相談することが重要である。

関連リンク

AIモデルの「妄想リスク」をWall Streetが評価 DeepSeekが最悪、GPT-5とClaude-4-Sonnetが上位 | 人気の記事 | HyperAI超神経