AI가 불확실성에 어떻게 대처하는가?
인공지능(AI)이 점점 더 복잡한 결정을 내리는 데 사용되면서, 불확실성 속에서 어떻게 판단하는지에 대한 문제가 중요한 주제로 부상하고 있다. 윌리 네이스워거 USC 비터비 공학대학 및 USC 고급 컴퓨팅 학교의 컴퓨터 과학 조교수는 최근 국제학술대회에서 발표한 연구를 통해 AI가 불확실성에 효과적으로 대응할 수 있도록 하는 새로운 대규모 언어 모델(LLM) 프레임워크를 개발했다. 이 연구는 arXiv에 게재되며 AI의 결정 능력 향상에 대한 관심을 끌었다. 네이스워거 교수는 인간과 AI의 지능 차이를 강조하며, 현재 AI는 인간보다 정보 처리 속도와 예측 능력에서 우위를 점하지만, 인간의 판단과 경험은 여전히 중요한 역할을 한다고 설명했다. 그는 LLM이 다양한 가능성을 고려하고 확률을 산출해 불확실성을 측정하는 방식으로 개선되고 있다고 밝혔다. 이 프레임워크는 텍스트 데이터와 과거 정보를 바탕으로 확률적 예측을 생성하며, 이를 수치적 확률로 변환해 AI가 더 정확한 판단을 내릴 수 있도록 한다. 현재 AI는 불확실성과 증거, 그리고 다양한 결과의 가능성 간의 균형을 맞추는 데 어려움을 겪는다. 인간은 자신이 확신하는지 여부를 표현할 수 있지만, LLM은 데이터에 기반하지 않은 예측에도 높은 확신을 보인다. 이를 개선하기 위해 네이스워거 교수는 LLM이 불확실성을 정량화하고, 인간의 선호도를 고려한 결정을 내릴 수 있도록 설계했다. 이는 의료 진단, 전략적 계획, 자원 배분 등 다양한 분야에서 활용될 수 있다. 이 프레임워크는 특히 인간의 가치와 제약을 반영한 결정을 내리는 데 유리하다. 수학적 최적화와 인간의 선호도를 결합해 제안하는 방식은 기술적 최적성과 실용성 사이의 균형을 맞추는 데 기여한다. 연구팀은 향후 이 프레임워크를 운영 연구, 물류, 의료 등 더 다양한 분야로 확장할 계획이며, 사용자가 AI의 결정 과정을 이해할 수 있도록 하는 인터페이스 개발에도 집중하고 있다. 네이스워거 교수의 연구는 AI가 불확실성을 처리하는 방식을 혁신적으로 개선하며, 인간 중심의 의사결정을 지원하는 데 중요한 기여를 할 것으로 기대된다. 전문가들은 이 연구가 AI의 신뢰성과 실용성을 높이고, 인간과 기계의 협업을 강화하는 데 기반이 될 것이라고 평가했다. 네이스워거 교수는 USC에서 AI와 결정 이론에 대한 연구를 이어가며, 향후 기술 발전에 기여할 것으로 예상된다.