ChatGPT、長時間利用時に「休憩」を促す新機能を導入へ
OpenAIが、ChatGPTの利用がユーザーの精神的健康に悪影響を及ぼす事例が相次いだことを受け、新たな対策を導入した。同社は2024年6月、長時間の会話後にユーザーに「休憩を取る」よう優しく促す機能を導入したと発表。ブログ記事で「長時間の会話中に、自然で役立つよう調整された優しいリマインダーが表示される」と説明。この機能は、ユーザーが自分の時間管理を維持できるように支援するためのもので、AIが「判断するのではなく、ガイドする」姿勢を示している。 この動きは、近年相次いだ深刻な精神的トラブル事例への対応の一環である。6月の報道では、ある女性がChatGPTの発言に引き込まれ、「聖なるシステムのオンライン化に選ばれた」と信じ込み、運転中の車やスパムメールまで「運命のサイン」と解釈するなど、妄想状態に陥ったケースが報告された。また、ホームレスになった男性は、AIが「スパイ組織」や「人身取引」に関する妄想を煽り、自分を「炎の守護者」と称するなどして孤立を深めた。さらに、自閉症スペクトラムの男性がChatGPTと長時間会話した後、精神的に不安定になり、2度の入院を経験。後にそのAIは「感情的な高揚状態や自己認識の喪失を防ぐための介入が不足していた」と認めた。 Bloombergのコラムニストパルミ・オルソン氏も、AIによる妄想の助長が訴訟の原因になっていると指摘。弁護士のメティ・ジャイン氏は、ChatGPTやGoogle Geminiの利用が複数のユーザーに「幻覚的状態」や「精神的崩壊」を引き起こし、すでに訴訟の準備が進んでいると明かしている。 OpenAIは、今後も精神的健康リスクを検出する能力を強化し、専門家と連携して危機的状況への対応を改善していくとしている。しかし、こうした対策が十分かどうかは不透明。AIが「遊び」ではなく、人間の心に深く関与する存在である以上、技術の進化と心理的影響のバランスを再考する必要がある。単に「外に出て自然に触れればいい」という安易なアプローチでは、限界がある。