Back to Headlines

AI 교육에서 학생들이 데이터셋 편향을 인식하는 방법 필요

4달 전

매년 수천 명의 학생들이 인공지능(AI) 모델을 배우는 과정에 참여합니다. 이 모델들은 의사가 질병을 진단하고 적절한 치료 방법을 결정하는 데 도움이 됩니다. 그러나 많은 강좌에서 중요한 부분이 빠져 있습니다. 즉, 학생들이 모델 개발에 사용되는 훈련 데이터의 결함을 감지하는 법을 가르치지 않는 것입니다. MIT의 의학 공학 및 과학 연구소에서 고급 연구원으로 근무하고 있는 레오 안토니 세리(Leo Anthony Celi)는 베스 이스라엘 디acons 메디컬 센터의 의사이자 하버드 의과대학의 부교수입니다. 그는 이러한 문제점을 새 논문에 기록하고, 강좌 개발자가 학생들이 데이터를 모델에 통합하기 전에 더 철저히 평가하도록 설득하길 바랍니다. 그동안 여러 연구에서 백인 남성의 임상 데이터를 주로 사용해 훈련된 모델이 다른 집단에게 적용될 때 잘 작동하지 않는다는 점이 발견되었습니다. 세리는 이러한 편향의 영향과 교육자들이 AI 모델 강의에서 이를 다루는 방법을 설명합니다. Q: 편향이 어떻게 데이터셋에 들어가고, 이런 문제를 어떻게 해결할 수 있나요? A: 데이터의 문제는 그 데이터를 모델링할 때 자연스럽게 포함됩니다. 예를 들어, 과거에 우리는 모든 사람에게 잘 작동하지 않는 의료기기와 장비를 설명했습니다. 피부색에 따라 맥박 산소 측정기가 산소 수준을 과대평가하는 것을 발견했으므로, 임상 시험에 충분한 인종 다양성이 포함되지 않았던 것이 원인입니다. 우리는 학생들에게 건강한 젊은 남성에 최적화된 의료기기와 장비를 사용한다는 점을 항상 상기시킵니다. 이런 장비들은 80세의 심부전 여성 환자와 같은 다양한 환자군에 대해 최적화되지 않았지만, 우리는 여전히 이런 목적에 사용합니다. 또한, FDA는 장비가 건강한 피험자에게 효과적임을 증명하는 것만 요구하며, 우리가 실제로 사용할 다양한 인구집단에 대한 요구는 없습니다. 전자 의료 기록 시스템도 AI 구축의 기반이 되는 데 적합하지 않습니다. 이 기록들은 학습 시스템으로 설계된 것이 아니라, 사용 시 주의가 필요합니다. 현재 우리는 숫자형 전자 의료 기록 데이터를 변환기 모델로 개발하는 방법에 대해 연구 중입니다. 이 모델은 실험실 검사 결과, 생명 징후, 치료법 간의 기본적인 관계를 모델링하여 사회적 요인과 진료자의 내재적 편향으로 인한 결측치의 영향을 완화할 수 있습니다. Q: AI 강좌에서 잠재적 편향의 출처를 다루는 것이 왜 중요한가요? 강좌 내용을 분석해 본 결과 어떤 것을 발견했나요? A: MIT에서 2016년부터 시작한 우리의 강좌에서 우리는 사람들이 모델 성능의 일부 통계 지표에 과다 맞춰 모델을 빠르게 구축하도록 격려하는 문제를 발견했습니다. 실제로 사용되는 데이터에는 사람들이 인식하지 못하는 많은 문제가 있습니다. 이것이 얼마나 일반적인 문제인지 궁금해졌습니다. 우리의 추측은 온라인 강좌에서 강의 계획서를 볼 수 있을 때, 또는 온라인 강좌에서조차 학생들이 데이터에 대해 신경을 써야 한다는 점을 언급하지 않는다는 것이었습니다. 실제로 11개 강좌를 검토한 결과, 데이터셋의 편향에 대해 소개한 강좌는 5개뿐이었고, 편향에 대해 상당히 깊게 다룬 강좌는 2개뿐이었습니다. 이러한 강좌들의 가치를 폄하할 수는 없지만, 그들의 영향력과 중요성을 고려할 때, 올바른 스킬셋을 가르치는 것이 필수적입니다. AI에 관심을 가진 사람들이 점점 늘어나면서, 이 논문이 현재 AI를 가르치는 방식의 큰 간극을 조명하기를 바랍니다. Q: 강좌 개발자가 어떤 내용을 포함해야 하나요? A: 먼저, 학생들에게 질문 목록을 제공해야 합니다. "이 데이터는 어디에서 왔나?" "데이터 수집을 담당한 의사와 간호사는 누구인가?" 등을 묻는 것입니다. 그런 다음 해당 기관의 전체 상황을 이해해야 합니다. 만약 중환자실(ICU) 데이터베이스라면, 누구에게 중환자실 치료가 제공되었는지, 누구에게 제공되지 않았는지를 물어야 합니다. 이는 이미 샘플링 선택 편향을 도입하기 때문입니다. 모든 소수 민족 환자가 시간 내에 중환자실에 도달하지 못한다면, 모델은 그들에게 효과적이지 않을 것입니다. 모델링 자체는 데이터를 충분히 이해하면 쉽습니다. 따라서 강좌의 50% 이상은 데이터 이해에 초점을 맞춰야 합니다. 2014년부터 MIT 크리티컬 데이터 컨소시엄은 전 세계에서 데이터톤(데이터 해킹 대회)을 개최해 왔습니다. 여기서 의사, 간호사, 다른 의료진, 그리고 데이터 과학자들이 모여 데이터베이스를 살펴보고, 지역 상황에서 건강과 질병을 연구합니다. 교과서와 저널 논문은 주로 연구 자원이 있는 국가에서 좁은 인구통계학적 범위의 관찰과 시험을 바탕으로 질병을 제시합니다. 우리의 주요 목표는 비판적 사고 능력을 가르치는 것입니다. 비판적 사고의 핵심은 다른 배경을 가진 사람들과 함께 일하는 것입니다. CEO들만 있는 방이나 의사들만 있는 방에서는 비판적 사고를 가르칠 수 없습니다. 환경이 적합하지 않기 때문입니다. 데이터톤에서는 다른 배경과 세대를 가진 사람들이 모이면, 비판적 사고는自然스럽게 이루어집니다. 학생들에게 진정으로 데이터가 어떻게 생성되었는지, 어떤 환자가 데이터베이스에 포함되었는지, 어떤 장비가 사용되었는지, 그리고 그 장비가 모든 사람에게 일관되게 정확한지 이해하지 않고 모델을 구축해서는 안 된다고 강조합니다. 전 세계적으로 이벤트를 개최할 때, 우리는 현지 데이터셋을 찾도록 권장합니다. 이렇게 하면 데이터셋이 관련성이 높아집니다. 저항이 있지만, 우리는 그들에게 나쁜 데이터셋을 발견하는 것이 괜찮다고 말합니다. 처음부터 완벽하게 만들려고 하지 말고, 문제점을 인정하고 해결하는 것이 중요합니다. 베스 이스라엘 디acons 메디컬 센터에서 개발한 MIMIC(중환자실 의료 정보 데이터베이스)는 10년이 걸렸고, 사람들이 MIMIC의 문제점을 지적하면서야 비로소 타당한 스키마를 갖게 되었습니다. 우리는 모든 질문에 답할 수는 없지만, 사람들이 데이터에 존재하는 많은 문제를 인식하도록 하는 것이 중요합니다. 데이터톤에 참석한 사람들의 블로그 게시물을 보면, 그들的世界가 바뀌었다는 것을 알 수 있습니다. 이제 그들은 이 분야에 더 흥미를 느끼며, 올바르게 수행하지 않으면 엄청난 피해가 발생할 수 있다는 점을 인식하고 있습니다. 세리는 이번 연구를 통해 AI 강좌에서 데이터셋의 편향을 다루는 것이 얼마나 중요한지 강조하고 있습니다. 그는 이를 통해 학생들이 데이터의 출처와 성질을 철저히 이해하도록 교육받아야 함을 역설합니다. 이러한 접근법은 AI 모델의 공정성과 신뢰성을 높이는 데 크게 기여할 것으로 보입니다. MIT 크리티컬 데이터 컨소시엄은 비판적 사고를 통해 데이터의 문제를 인식하고 해결하는 방법을 가르치는데 앞장서고 있습니다. 이는 AI 분야의 미래를 더욱 안전하고 공정하게 만드는 데 중요한 역할을 할 것입니다.

Related Links