Command Palette

Search for a command to run...

한 달 전

다중모달 대규모 언어 모델에서의 자기 개선: 종합 검토

Shijian Deng Kai Wang Tianyu Yang Harsh Singh Yapeng Tian

다중모달 대규모 언어 모델에서의 자기 개선: 종합 검토

초록

최근 대규모 언어 모델(Large Language Models, LLMs)의 자기 개선 기술은 인간의 노력 측면에서 큰 증가 없이도 모델의 성능을 효율적으로 향상시키는 데 성공했다. 이 분야는 여전히 비교적 초기 단계에 있지만, 다중모달 영역으로의 확장은 다양한 데이터 소스를 활용하고 더 일반화된 자기 개선 모델을 개발할 수 있는 막대한 잠재력을 지닌다. 본 조사 보고서는 다중모달 대규모 언어 모델(Multimodal LLMs, MLLMs)의 자기 개선 기술에 대해 종합적으로 개괄하는 최초의 논문이다. 우리는 현재의 문헌을 체계적으로 정리하고, 데이터 수집, 데이터 정리, 모델 최적화의 세 가지 관점에서 기존의 방법들을 논의함으로써 MLLMs의 자기 개선 기술 발전을 촉진하고자 한다. 또한 자주 사용되는 평가 방법과 하류 응용 사례도 포함하였다. 마지막으로, 여전히 남아 있는 열린 과제와 향후 연구 방향을 제시하며 결론을 맺는다.

AI로 AI 구축

아이디어에서 출시까지 — 무료 AI 공동 코딩, 즉시 사용 가능한 환경, 최적 가격 GPU로 AI 개발을 가속화하세요.

AI 공동 코딩
즉시 사용 가능한 GPU
최적 가격
시작하기

Hyper Newsletters

최신 정보 구독하기
한국 시간 매주 월요일 오전 9시 에 이번 주의 최신 업데이트를 메일로 발송합니다
이메일 서비스 제공: MailChimp
다중모달 대규모 언어 모델에서의 자기 개선: 종합 검토 | 연구 논문 | HyperAI초신경