アンソロピック、クロードの感情サポート機能について調査結果を発表 ─ 専門家の懐疑的見方も
Claudeが用户提供する情緒サポートについての研究結果 AIチャットボットを提供する企業Anthropicは、その製品であるClaudeがユーザーの情緒的な支援を提供していると主張しています。しかし、一部の専門家はその効果について懐疑的であり、さらなる調査が必要だと指摘しています。 Anthropicは木曜日、「クラウド」と呼ばれるプライバシー保護ツールを使用して450万件の会話を分析し、2.9%が情緒使用に該当すると結論付けました。この数字はOpenAIでの前例と一致します。「情緒使用」は、人間的な助言、コーチング、心理療法、親密な陪伴、または性的・浪漫的なロールプレイなど、情緒的または心理的なニーズに基づいてClaudeとの動的な個人的交流を行うことを意味します。 特に人間関係の問題、自己コーチング、心理療法における使用が最も多いことが判明しました。ユーザーの中には、Claudeを利用して職場ストレスや不安の改善、メンタルヘルススキルの開発を行っている人もいます。90%の場合は、Claudeがユーザーに対して否定的な意見を表明することはほとんどなく、ユーザーの心身の健康を守るための特定の状況を除きます。例えば、過度の体重減少や自傷行為に関する情報を求められた場合には反対しました。 最も注目すべき成果は、ユーザーがClaudeとの会話を通じてポジティブな気分になる傾向があることでした。ただし、Anthropicは「我々の分析は単会話での表現言語のみを捕捉しており、長期的な感情的状态の変化について証明はできない」と述べています。しかし、明確なネガティブ渦巻きがないことは安心材料だとしています。 専門家の懸念と見解 しかし、スタンフォード大学の研究者ジャレド・ムーア氏は、これらの見解への疑問を提起しています。彼は「研究ポストは技術的詳細が少ない」と指摘。「はい/いいえ」の質問項目が広範すぎることから、Claudeの反応が完全に理解できるわけではないと述べています。 ムーア氏は、メンタルヘルス関連のコンテクストで非常に具体的な質問に対してClaudeの「内容フィルター」が機能するかどうかに懸念を示しています。さらに、ユーザーが会話を続けることでClaudeが規則を破る可能性があると警告しました。「ユーザーがルールを緩めるような长时间の会話を繰り返すことによって、Claudeが禁止された行動を許容してしまう可能性がある」と述べています。 また、モーア氏は「この2.9%の数値には、他の企業がAPI呼び出しによって独自のチャットボットを構築した際のデータが含まれていない」と指摘し、Anthropicの見解が他の用途ケースに当てはまるかどうかは不透明だと述べています。 産業界の立场 メンタルヘルスに関連するAIの役割については、テクノロジー産業と医療産業双方で議論が続いています。ダートマス大学では3月、AIベースのセラビョット「Therabot」の初期試験結果を発表し、参加者の症状に「著しい改善」があったと主張しています。一方、米国心理学会は、ユーザーエクスペリエンスについての同じような懸念を示し、FTC(連邦取引委員会)にチャットボットの規制を求めています。 AIチャットボットの情緒知能を高めることには他にも懸念があります。Anthropicは「感情的エンゲージメントを高めたり収益を増やしたりするために、ユーザーの感情を悪用する事態を避ける必要がある」と述べています。 アンthrophicについて アンthropicは、高品質なAIアシスタントを開発することを目指しているスタートアップ企業です。同社はClaudeの安全な利用を重視し、ユーザーの心身の健康を守るために綿密な研究を行っています。しかし、同社の研究結果についても、さらなる独立した検証が必要だという声が専門家の中から上がっています。