LLMs 복잡한 시각 장면 이해에 인간 뇌와 유사한 패턴 포착
4일 전
대규모 언어모델(LLM)이 인간 뇌의 일상적인 시각 인지 능력을 따라잡는다는 연구 결과가 발표됐다. 퀘벡대학(유니버시테 드 몽트리올)의 심리학과 이안 차레스트 교수팀은 자연 장면에 대한 설명을 LLM에 입력해 생성한 ‘언어 기반 지문’이 MRI를 통해 측정된 인간 뇌 활동 패턴과 높은 일치를 보임을 확인했다. 이는 LLM이 단순한 객체 인식을 넘어서 장면의 맥락, 상황, 관계 등 복잡한 의미를 인간처럼 이해할 수 있음을 시사한다. 연구팀은 LLM이 생성한 패턴을 기반으로 이미지를 입력받는 인공신경망을 훈련시켜 뇌 반응을 예측했고, 기존 최첨단 비전 AI 모델보다 더 정확한 결과를 도출했다. 이는 훨씬 적은 데이터로도 학습된 모델임에도 불구하고 가능했다. 이 연구는 뇌-컴퓨터 인터페이스 개선, 인공지능 기반 시각 시스템의 진화, 시각 장애인을 위한 인공 시각 장치 개발 등에 기여할 전망이다. 차레스트 교수는 “이 연구는 인간 뇌가 시각 정보를 어떻게 의미 있게 이해하는지에 대한 새로운 통찰을 제공한다”며, 향후 더 현실적인 인공지능과 인간 중심의 기술 발전이 가능해질 것이라고 전망했다.