研究警告:聊天机器人可能无法提供可靠的健康建议
据最新的一项牛津大学领导的研究显示,在医疗系统负担过重、等待时间长和成本不断上升的情况下,许多美国人开始依赖像ChatGPT这样的AI聊天机器人进行自我诊断。最近的一次调查显示,约有六分之一的美国成年人每月至少使用一次聊天机器人获取健康建议。 这项研究揭示了在使用聊天机器人时存在的双向沟通障碍。参与者并未比那些依赖传统方法(如在线搜索或个人判断)的人做出更好的决策。“使用这些聊天机器人并没有让参与者更有可能正确识别出相关健康状况,甚至让他们更容易低估已识别状况的严重性。”牛津互联网研究所研究生院主任亚当·马赫迪在接受TechCrunch采访时说。 研究涉及了来自英国的约1300名参与者,他们被分配了由医生编写的一系列医疗情景。任务是在这些情景中识别潜在的健康问题,并通过使用聊天机器人以及他们自己的方法来确定可能的应对措施(如就医或前往医院)。参与者使用的AI模型包括ChatGPT的基础模型GPT-4、Cohere的Command R+和Meta的Llama 3(曾支持该公司的人工智能助手)。 研究结果表明,当向聊天机器人询问病情时,用户经常遗漏了关键细节,或是得到难以理解的回答。这些响应通常包含了好坏参半的建议,使得用户在做出健康决定时更加困惑。 “当前对于聊天机器人的评估方法无法反映其与人类用户互动的复杂性。”马赫迪补充道。“就像新药需要经过临床试验一样,聊天机器人系统也应在真实环境中接受测试,然后才能正式投入使用。” 尽管存在这些风险,科技公司仍在积极推广人工智能的应用,希望能够改善医疗结果。苹果公司正在开发一款可以提供运动、饮食和睡眠建议的AI工具。亚马逊则在探索一种基于AI的方法,用于分析医疗数据库中的“社会健康决定因素”。而微软也在协助研发一套可以筛选患者发送给护理人员的消息的AI系统。 然而,专业人士和患者对于AI是否适合更高风险的医疗应用持保留态度。美国医学协会反对医生使用类似ChatGPT的聊天机器人辅助临床决策。同样,包括OpenAI在内的主要AI公司也警告不要根据聊天机器人的输出做出任何诊断。 总的来看,虽然AI聊天机器人在某些方面能够提供帮助,但其在医疗领域的应用仍需谨慎。目前的评估体系尚不足以全面反映这些技术在真实使用中的效果和风险。马赫迪建议大家在做医疗决策时应依赖可信的信息来源,并期待未来能有更严格的测试机制来确保这类系统的安全性和有效性。 科技公司在推动AI医疗应用的同时,也面临着如何平衡创新与社会责任的挑战。苹果、亚马逊和微软等巨头正在积极探索新的可能性,但AI聊天机器人在医疗领域的风险和局限性依然不容忽视。