AI 의료 도구가 여성과 소수 집단에 부정적 영향 미쳐, 편향 문제 심각성 경고
4일 전
의료용 AI 도구가 여성과 소수 집단에 대해 더 나쁜 치료 결과를 초래하는 문제가 드러났다. 과거 임상시험과 연구는 주로 백인 남성에게 기반해 와 여성과 인종적 소수자들이 대표되지 않았다. 이로 인해 AI 모델이 학습한 데이터에도 편향이 반영되며, 결과적으로 여성 환자에게 더 적은 치료를 권고하거나 ‘집에서 자가 관리하라’는 조언을 더 자주 내리는 문제가 발생했다. MIT 연구팀의 보고서에 따르면 OpenAI의 GPT-4와 Meta의 Llama 3은 여성 환자에 대해 치료를 축소하는 경향이 있었으며, Palmyra-Med 같은 전문 의료용 LLM 역시 유사한 편향을 보였다. 런던 경제대학의 분석에서는 구글의 Gemma 모델도 여성의 필요를 남성보다 낮게 평가하는 경향이 있었다. 또 지난해 랭게트에 발표된 논문은 GPT-4가 인종, 성별에 따라 진단과 치료 제안을 다르게 하며, 인구 통계적 요소에 따라 더 비싼 검사나 수술을 권유하는 경향이 있음을 밝혔다. 이는 단순한 오류를 넘어서, 오랜 기간 이어져온 의료 편향을 AI가 지속하고 있음을 의미한다. 구글의 Med-Gemini가 실제 존재하지 않는 신체 부위를 생성한 사례처럼, AI의 잘못은 명백할 수도 있지만, 편향은 더 미묘하고 인식하기 어렵다. 의료진이 AI의 판단을 의심할 수 있는 능력이 없다면, 이런 편향은 치명적인 결과를 낳을 수 있다. AI가 의료 현장에 빠르게 진입하고 있는 지금, 이 문제는 단순한 기술적 과제를 넘어 윤리적·사회적 위기로 확장되고 있다.