AI 모델이 스스로를 검색한다: 대규모 언어 모델, 이미 내장된 지식으로 복잡한 질문 해결 가능
3일 전
대규모 언어모델(LLM)은 별도의 검색엔진을 사용하지 않고도 이미 자신이 학습한 지식을 스스로 탐색할 수 있음이 입증됐다. 퀸화대와 상하이 AI연구소 연구진이 개발한 SSRL 프레임워크는 LLM이 외부 검색 없이도 복잡한 질문에 정확히 답할 수 있음을 보여주며, 기존의 ‘모델이 답을 모르면 검색해야 한다’는 가정을 뒤엎는다. 이는 모델이 훈련 과정에서 이미 수백만 개의 정보를 내재화하고 있으며, 이를 효과적으로 탐색할 수 있다는 의미다. 기존에 Google이나 Bing API 호출로 발생하는 비용 문제도 해결 가능해지며, AI 에이전트의 자율성과 효율성은 크게 향상된다. 이는 마치 도서관에 책을 다 외운 사람이 다시 책을 찾아보지 않아도 된다는 비유와 같다. 연구진은 현재 모델이 보유한 지식의 잠재력을 과소평가하고 있을 수 있다고 지적하며, 일리아 츠르스케버의 주장처럼 ‘모델이 이미 모든 답을 알고 있을 가능성’에 대한 재고가 필요하다고 강조한다.