FDA, 엘사 출시로 AI 시대 개막
FDA가 예정보다 빠르게 생성형 AI 도구 엘사(Elsa)를 출시했습니다. 10일, 미국 식품의약국(FDA)은 생성형 인공지능(AI)을 이용해 효율성을 향상시키겠다고 발표했습니다. FDA의 이 AI 도구는 엘사라는 별칭으로 알려져 있으며, 과학적 검토부터 기본 운영까지 직원들에게 다양한 지원을 할 수 있습니다. 원래 FDA는 6월 30일에 출시할 계획이었지만, 예정보다 빠르게 예산 내에서 완성했다고합니다. 엘사의 학습 데이터에 대해서는 명확히 밝혀지지 않았지만, FDA는 "규제 산업이 제출한 데이터"를 사용하지 않았다고 밝혔습니다. 이는 민감한 연구와 정보를 보호하기 위함입니다. 현재 엘사는 분류된 정보를 위해 설계된 아마존 웹 서비스(AWS)의 GovCloud에 정보를 저장하고 있습니다. 엘사는 언어 모델로서, 직원들이 읽기, 쓰기, 요약하는 데 도움을 줍니다. 또한, 부작용 요약, 비임상 애플리케이션 코드 생성 등 다양한 기능을 지원합니다. FDA는 엘사가 "임상 프로토콜 검토 시간을 단축하고, 과학적 평가에 필요한 시간을 줄이며, 우선 순위가 높은 점검 대상을 식별하는 데 활용되고 있다"고 밝혔습니다. 5월에 FDA가 처음으로 AI 지원 과학적 검토를 완료한 이후, 마카리는 엘사의 기능에 대해 "놀라웠다"며 "새로운 치료법의 검토 시간을 가속화하는 데 막대한 잠재력을 가지고 있다"고 평가했습니다. 그는 "우리 과학자들의 시간을 소중히 여기고, 과거 검토 과정에서 많이 차지하던 비생산적인 일들을 줄여야 한다"고 강조했습니다. 한 과학자인 류 진중(Liu Jinzhong)은 엘사가 몇 일 걸리는 작업을 몇 분 만에 완료했다고 말했습니다. 10일 발표에서 FDA 최고 AI 책임자 제레미 월시(Jeremy Walsh)는 "오늘은 FDA에 AI 시대가 열리는 날입니다. AI는 더 이상 먼 미래의 약속이 아니라, 모든 직원의 성능과 잠재력을 강화하고 최적화하는 역동적인 힘입니다"라고 밝혔습니다. 생성형 AI는 유용한 도구이지만, 모든 도구에는 단점이 있습니다. 특히 AI의 경우, 환각(hallucination)이라는 완전히 잘못되거나 오도할 수 있는 주장과 진술이 늘어나고 있습니다. 이는 일반적으로 ChatGPT 같은 챗봇과 연관되지만, 연방 정부의 AI 모델에서도 발생할 수 있어 더욱 혼란을 초래할 수 있습니다. IT 전문가들은 AI 환각이 학습 데이터의 편향이나 모델 자체에 구축되지 않은 사실 확인 장치 등으로 인해 발생한다고 설명합니다. 이러한 장치가 마련되어 있더라도, IT 전문가들은 "인간의 감독이 필수적이며, 이를 통해 AI 통합 연방 데이터 스트림의 위험을 완화하고 신뢰성을 보장할 수 있다"고 경고하고 있습니다. 이상적으로는 FDA가 엘사의 사용에 따른 모든 사고를 방지하기 위해 철저하게 고려하고 조치를 취했을 것입니다. 하지만 최근 연방 기관들이 대규모 해고를 진행하고 있는 상황에서 기술의 확대가 인간의 감독을 필요로 하는 것은 항상 우려스러운 점입니다. 4월 초, FDA는 과학자와 점검 인력 등을 포함해 3,500명의 직원을 해고했습니다(후에 일부 해고 처분이 철회되었음). 시간이 지나면서 엘사의 최종 성능이 어떻게 나타날지 확인될 것입니다. 그러나 FDA는 엘사가 성숙함에 따라 그 사용 범위를 확대할 계획입니다. 이는 데이터 처리와 생성형 AI 기능을 포함하여 "FDA의 임무를 더욱 지원하기 위함"입니다. 산업 전문가들은 이번 엘사의 출시를 긍정적으로 평가하면서도 신중한 접근이 필요하다고 지적합니다. 엘사의 성공적인 운영은 FDA의 검토 과정을 획기적으로 개선할 가능성이 있지만, AI의 환각 문제와 해고로 인한 인력 부족은 여전히 해결해야 할 중요한 이슈입니다. FDA는 이러한 문제를 감안하여 엘사의 안전성을 지속적으로 점검하고, 인간의 감독을 강화할 것으로 보입니다.