研究揭示:聊天机器人在心理健康支持中竟被视作更富评判性
研究发现,聊天机器人在心理健康服务中被认为比人类提供者更具批判性,尽管双方的行为完全相同。这一意外的结果来自于坦普尔大学的一位副教授及其团队的多项实验。 研究的出发点是考虑到社会上存在对心理健康的偏见,很多有心理健康问题的人不愿向传统的人类专业人士寻求帮助。Sezgin Ayabakan,坦普尔大学福克斯商学院管理信息系统系的副教授认为,使用人工智能(AI)可以帮助改善这种状况,特别是通过降低患者对被评判的担忧。他们假设人们可能更愿意向没有情感判断能力的机器人倾诉自己的问题。 为了验证这一假设,Ayabakan与他的团队设计并进行了四次不同规模的实验室实验,共涉及290至1105名参与者。在实验中,所有参与者都被展示了一段代理人与患者的对话视频,但只有一半的参与者被告知代理人是AI,另一半则被告知是人类。尽管两个代理人表现出了完全相同的反应,参与者的感受却大不相同。 研究结果显示,参与者普遍认为AI代理人比人类专业人士更具批判性。Ayabakan进一步解释说:“人们的感觉是,尽管AI没有表现出更多的批评,但它们缺乏人类特有的同理心、情感理解和社交意义。”这意味着,在处理心理健康问题时,患者更看重的是那种能够理解并认同他们的感受的人际联系,而这是当前AI技术难以提供的。 此外,研究团队通过深度访谈收集了更多关于这一现象的原因。在41次深度访谈中,大多数受访者表示,他们觉得聊天机器人无法传达那种“人与人之间”的温暖和支持感,因此感到自己被更严厉地评判了。 这项研究的重要结论是,当人们评估AI代理人时,他们关注的是这些代理人不能做到的事情,而不是它们能做的事情。相反,在评价人类专业人士时,人们更倾向于基于对方的实际表现来做判断,而不是基于对方缺乏的能力。这一发现对未来的AI设计有着重要影响,尤其是对于那些旨在改善心理健康护理获取途径的应用来说。设计师需要更加关注如何让AI更好地理解和传达对人类情绪的支持,以减轻用户的担忧。 业内人士评价称,这项研究为理解人机交互中的心理障碍提供了宝贵的洞见,强调了在心理健康领域内应用AI技术时需考虑人文关怀的重要性。同时,该研究也再次提醒我们,尽管技术在不断进步,但在某些方面,人类的情感和社会互动是不可替代的。坦普尔大学在健康信息技术研究方面始终处于领先地位,这次研究进一步巩固了其在这一领域的权威地位。