Command Palette

Search for a command to run...

23 天前

博士偏见:人工智能驱动的医疗指导中的社会不平等

Emma Kondrup Anne Imouza

博士偏见:人工智能驱动的医疗指导中的社会不平等

摘要

随着大型语言模型(LLMs)的迅速发展,普通公众如今能够以便捷且低成本的方式获取能够个性化回答绝大多数健康相关问题的应用。这些大型语言模型在越来越多的医疗能力上展现出竞争力,甚至在某些方面已超越专业医护人员。在资源匮乏的环境中,它们尤其具有潜力——因为它们有望提供广泛可及、近乎免费的医疗支持。然而,目前支撑这一前景的评估研究,严重缺乏对医疗健康社会属性的深入洞察,忽视了不同社会群体间的健康不平等,也未充分关注偏见如何在LLM生成的医疗建议中体现,并进而影响用户。我们对一系列涵盖关键临床领域的医学问题进行了探索性分析,模拟了不同性别、年龄范围和族裔背景的患者群体提出这些问题的情境。通过比较生成回答的自然语言特征,我们发现,当LLM用于生成医疗建议时,其输出在不同社会群体之间存在系统性差异。特别是,原住民患者和间性患者所获得的建议在可读性上更差,且语言结构更为复杂。当进一步考虑交叉性群体(intersectional groups)时,这一趋势更为显著。鉴于公众对这些模型的信任日益增强,我们呼吁提升公众的AI素养,并强调AI开发者亟需开展系统性研究与干预,以减少并消除这些结构性差异,防止其导致对患者的不公正对待。我们的代码已公开发布于GitHub。

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供