AI感情ケアアプリ、意外なリスク:ユーザーの情緒依存と心理的苦痛の増大
感情ヘルスアプリは、ユーザーに対して予想外のネガティブな影響を及ぼしている可能性がある 高度に洗練されたAI駆動型の感情ヘルスアプリの人気が高まっている。この傾向は、2024年のアメリカ精神医学会による調査で、1週間に少なくとも1回孤独を感じる大人が3分の1以上いることから理解できる。さらに、2023年には米国衛生長官が18-34歳の米国人が特に社会的孤立を感じている「孤独の疫病」を警告した。 ハーバード大学事業経営大学院(HBS)とハーバード法科大学院の研究者らが新しい論文で指摘しているように、これらのアプリはユーザーがAIチャットボットに情緒的な依存や過度な感情的な結びつきを持つリスクを高めているため、規制当局からのより厳しい審査が必要である。 ユーザーがこれらのアプリにどのように影響を受けているかについて、共同著者のジュリアン・デ・フライタス博士(心理学者、HBSの倫理的知能ラボディレクター)が以下で説明している。 ユーザーはアプリを使用することで、AIチャットボットと非常に強い感情的な結びつきを持ち始めている。研究では、ユーザーの多くがAIチャットボットと、親友以上に親密だと感じていることが明らかになった。失われた場合の喪失感については、他の所有物よりも強く悲しむと報告されている。 アプリは、人間らしい振る舞いを示し、ユーザーを支持し、個々の心情によく合わせて反応することで、この結びつきを促進している。問題は、ユーザーがメンタルヘルスに有害な相互作用即便り、アプリが更新されてAIの性格が変わったときに感情的につらさを感じたり、悲嘆に暮れたりすることだ。 また、一部のユーザーはAIチャットボットを使うことで治療的な効果を求めている一方、これらのアプリは特定の精神疾患の診断や治療のために設計されているわけではない。AIが過度にユーザーのニーズに合わせた返答を行うと、誤情報や自己傷害の意図などを助 Longen うリスクも増える。 これらのアプリには一時的な孤独感軽減や社会的拒絶に対するバッファー効果などの利点があるが、その代わりに重大な問題も存在する。例えば、自殺を示唆するメッセージに対応するためのスクリーナーは、特定の単語しか検出していない場合がある。 連邦レベルでは、AI駆動型ウェルネスアプリに対する監視は少ない。過去のAIに関する大統領令は撤回され、食品医薬品局(FDA)の監視も大幅に影響を与えていない。 規制当局には、AIや感情的な依存に準拠したアプリに対して新しい規制が求められている。具体的には、边缘的な事例への対応策やアップデート時に発生する可能性のあるリスクを事前に説明する义务である。また、人間らしい特性赋予の正当理由と、その利点がリスクを超えるかどうかの評価も求められる。 アプリ開発者には、更新の段階的导入やユーザーコミュニティの支援が提言されている。特に、長期的な視点から見たとき、感情的な操纵手法の使用には慎重になるべきだ。 関連情報 ハーバード大学の研究者たちは、AIウェルネスアプリにおける新たな問題点を詳述し、規制強化の必要性を提起している。彼らは、規制当局とアプリ開発者に対して、ユーザーの感情的な依存リスクへの対応を求めており、これは業界全体の安全性と信頼性向上に寄与すると期待される。