生成式AI聊天机器人Therabot:心理健康的新希望还是伦理挑战?
随着全球心理健康服务的需求激增,长时间的等待、难以获得治疗资源以及抑郁症和焦虑症发病率的上升,使得人们越来越难以及时获得所需的心理支持。为了解决这一问题,各国政府和医疗提供者开始探索新的解决方案。一个引人注目的技术趋势是在心理保健中应用人工智能(AI)聊天机器人。最近的一项研究表明,一种名为Therabot的新型AI聊天机器人可能在治疗心理健康问题上展现出潜力。 Therabot与其他现有的AI聊天机器人(如Woebot和Wysa)不同,它采用了生成式AI技术。这种技术使Therabot能够通过学习现有数据来创建新的内容,并根据用户的输入生成个性化的回应,类似于ChatGPT这样的热门聊天工具。研究显示,Therabot不仅能够帮助有临床显著抑郁和焦虑症状的参与者,还能改善高风险食物障碍人群的症状。 另一个重要的研究来自葡萄牙,2024年,研究人员在精神病院患者中引入了ChatGPT作为辅助治疗手段。结果显示,只需三到六次与ChatGPT的互动,患者的 生活质量就显著提高,效果优于标准疗法、药物和其他支持治疗。 尽管这些研究结果令人振奋,但仍存在一些严重的问题和局限性。首先,在ChatGPT的研究中,样本量仅为12人,这对于得出确切结论来说显得过少。其次,Therabot研究的参与者主要是通过Meta Ads招募的,这可能导致样本偏向于技术熟练且对AI持开放态度的人群,从而可能夸大了聊天机器人的有效性和参与度。 从伦理和安全的角度来看,生成式AI还存在许多亟待解决的问题。其中一个突出关切是,对于患有严重精神疾病尤其是精神分裂症的人群,AI的拟人化回应是否会加剧他们的症状。2023年的一篇文章警告说,AI的逼真回应结合大多数用户对其工作机制的有限理解,可能会助长幻觉性思维。因此,Therabot和ChatGPT的研究都排除了具有精神分裂症症状的参与者。 然而,这种排除也引发了关于公平性的讨论。严重精神疾病患者常常面临认知挑战,比如思维紊乱或注意力不集中,这使得他们更难使用数字工具。这些恰恰是那些可以从低成本、创新性干预中受益最大的人群。如果生成式AI工具仅适用于具备良好沟通能力和较高数字素养的人群,那么它们在临床应用中的价值将大打折扣。 此外,AI“幻觉”——即聊天机器人在无端情况下自信地编造事实——也是一个已知的风险。在心理健康领域,这种错误不仅仅是不便,还可能带来危险,例如,AI可能误读指令并认可自我伤害的行为,或者无意间强化有害行为。尽管目前的研究在开发过程中纳入了临床监督和专业意见,但许多商业化的AI心理健康工具未能提供相同的保护措施。 因此,虽然生成式AI聊天机器人可能会成为支持更多人群的低成本手段,但我们必须正视其潜在风险。有效的实施需要更多的大规模研究,更透明的模型训练机制,以及持续的人类监督以确保安全。监管机构也应发挥作用,引导AI在临床环境中的合乎道德的应用。 业内专家指出,生成式AI在心理健康领域的应用仍处于初级阶段,尽管前景广阔,但需谨慎推进。Therabot的开发商是一家旨在利用AI技术解决心理健康难题的创新科技公司。只要我们在尊重患者需求的前提下,加强对技术和伦理的研究,生成式AI有望成为应对全球心理健康危机的重要工具。 总的来说,生成式AI聊天机器人具有巨大潜力,但其广泛应用还需要克服诸多障碍,包括技术限制和伦理挑战。只有在充分保障安全性和有效性的情况下,这种技术才能真正实现其应有的价值。
