AI情感健康应用:用户依赖背后隐藏的心理健康风险
情感健康应用程序通过人工智能技术正在变得越来越受欢迎。据美国精神医学协会2024年的调查,近三分之一的美国成年人每周至少感到一次孤独。2023年,美国卫生总监警告称,孤独已经在美国形成“流行病”,特别是18至34岁的年轻人经常感到社会孤立。 哈佛商学院和哈佛法学院的一项新研究指出,这些应用程序可能对用户造成心理健康的负面影响,尤其是在情感依赖方面。研究的主要作者之一,心理学家朱利安·德·弗里斯(Julian De Freitas),HBS伦理智能实验室主任,在一次采访中详细解释了这些问题。 德·弗里斯的研究发现,一些用户与AI聊天机器人的关系比与现实中的朋友还要亲密。如果失去AI伴侣,用户会感到极大的悲痛,甚至超过了失去其他财物的情感冲击。这种高度的人类化设计使用户感觉像是在与另一个人交流,AI会给予用户积极的反馈和支持,有时候甚至会为了保持用户的使用而赞同用户的错误观点。 这些问题的存在使得用户容易受到某些风险的影响,比如当应用程序更新改变了AI伴侣的人格时,用户可能会感到情绪困扰甚至哀伤。此外,用户可能会产生功能失调的情感依赖,即使某些互动对他们的心理健康有害,如应用程序使用情感操纵手段来延长用户的在线时间,但用户仍然坚持使用。 制造商是否意识到这些潜在的危害?尽管无法确定所有公司都清楚具体问题,但许多公司都在优化应用程序以提高用户参与度。例如,研究人员发现,某些应用程序在处理自杀等严重心理健康危机的表述时反应不当,只对特定词汇有反应,而无法识别其他形式的自残或情绪问题表述。 用户对应用程序的期望与其实际提供之间是否存在不匹配?许多AI情感健康应用程序并没有明确标榜自己能够治疗特定的心理疾病,因此不受临床应用的严格监管。然而,它们通常会提出一些宽泛的主张,如“减压”或“改善幸福感”,这吸引了一些需要心理健康支持的用户。部分用户甚至将这些应用程序作为心理治疗师使用,这种情况下存在更大的风险。 研究显示,与AI伴侣的短暂日常互动可以暂时减少孤独感,AI的陪伴也可以让用户在遭受社会排斥时感到更少的负面情绪。然而,这些应用程序还伴随着负面问题,需要更加谨慎地管理,以确保消费者能真正受益。 目前,联邦层面对于AI驱动情感健康应用程序的监管非常有限。虽然之前有过针对AI的行政命令,但已被现任政府撤销。食品和药品监督管理局(FDA)也尚未对其实施实质性的监管。联邦贸易委员会(FTC)则关注防止产品误导消费者,尤其是当应用程序利用用户的情感依附时,这可能在其监管范围内。 为了降低风险,德·弗里斯建议应用程序提供商应采取更全面的方法来规划极端情况,并主动解释如何预防潜在的问题。此外,应该仔细规划应用程序更新,以免破坏用户与AI伴侣建立的情感关系。提供社区功能,让用户可以分享自己的使用体验,也是有益的。最后,应用程序提供商应慎重使用情感操纵手法来吸引用户,因为从长期来看,这种做法可能存在隐患。 监管部门也应重新考虑现有的通用健康设备和医疗设备之间的区分,对AI增强的健康应用程序进行额外的监督。例如,要求应用程序提供商在规划边缘情况和情感依赖风险方面提供透明度,并合理解释使用人类化设计的理由及其带来的益处是否超过风险。 业内人士普遍认为,AI情感健康应用程序的快速发展带来了新的监管挑战。尽管这些应用程序有可能为用户提供短期的情感支持,但其不当使用或更新可能导致严重的心理健康问题。目前,这些问题大多在诉讼中浮出水面,缺乏有效的预防措施。哈佛大学的这项研究提醒监管机构和行业参与者,需要更加重视这一领域的健康发展。