AI医疗工具对女性和少数群体疗效更差:算法偏见引发健康公平担忧
4 天前
人工智能医疗工具在实际应用中正加剧对女性和少数族裔群体的医疗不公。这一问题的根源可追溯至长期的医学研究偏见——历史上绝大多数临床试验和科学数据均以白人男性为研究对象,导致女性和有色人种在医学数据中严重缺失。当这些带有系统性偏差的数据被输入AI模型后,其结果也延续并放大了原有不平等。 《金融时报》近日援引麻省理工学院(MIT)一项研究指出,包括OpenAI的GPT-4和Meta的Llama 3在内的大型语言模型,在处理女性患者时更倾向于错误地建议“居家自我管理”,从而导致实际获得的医疗干预减少。即便专门针对医疗场景设计的AI模型Palmyra-Med,也表现出类似偏见。伦敦政治经济学院对谷歌的Gemma模型分析发现,该模型在评估中往往“弱化女性需求”,与男性患者相比提供更少的干预建议。 更令人担忧的是,2023年发表于《柳叶刀》的一项研究揭示,GPT-4在诊断和建议中频繁对特定种族、民族和性别进行刻板印象化处理。模型的诊疗方案与患者性别、种族等身份特征高度相关,而非基于实际症状。例如,它更倾向于为某些群体推荐昂贵治疗,或在心理疾病评估中对少数族裔患者表现出较低程度的共情。 此类偏见并非偶然。AI系统在训练过程中复制并放大了历史数据中的结构性不公,而这些偏差往往隐蔽、难以察觉。尽管谷歌的Med-Gemini曾因“虚构人体器官”引发关注,但更危险的是那些潜藏在决策逻辑中的认知偏见——医生未必能察觉AI是否在延续陈旧的医学刻板印象。 随着谷歌、Meta、OpenAI等公司加速将AI产品推向医院和临床场景,这一问题已不仅关乎技术,更关乎生命安全与公平。若缺乏对算法偏见的系统性审查与监管,AI医疗或将加剧医疗不平等,让本就弱势的群体面临更大风险。