Command Palette

Search for a command to run...

21일 전

잠재적 개선 디코딩: 믿음 상태의 개선을 통한 확산 기반 언어 모델의 성능 향상

Qinglin Zhu Yizhen Yao Runcong Zhao Yanzheng Xiang Amrutha Saseendran Chen Jin Philip Alexander Teare Bin Liang Yulan He Lin Gui

잠재적 개선 디코딩: 믿음 상태의 개선을 통한 확산 기반 언어 모델의 성능 향상

초록

자기회귀(AR) 모델은 자연어 생성 분야에서 여전히 표준이지만, 엄격한 순차적 디코딩으로 인해 높은 지연 시간(latency) 문제를 겪고 있다. 최근의 확산(diffusion) 모델을 영감으로 삼은 접근 방식, 예를 들어 LlaDA와 Dream은 병렬적으로 생성함으로써 이 문제를 완화하고 있으나, 두 가지 핵심적 한계를 가지고 있다. 첫째, 각 단계에서 완료되지 않은 토큰에 대한 예측 분포가 버려지면서 정보 손실이 발생하고, 둘째, 충분한 전역적 조율 없이 국소적인 결정을 조기에 내리게 되는 '조기 결정(early commitment)' 문제이다. 본 연구에서는 잠재적 정제 디코딩(Latent Refinement Decoding, LRD)을 제안한다. 이는 잠재적 정제(Latent Refinement)와 예측 피드백 루프(Predictive Feedback Loop)로 구성된 두 단계 프레임워크이다. 첫 번째 단계에서는 예측된 토큰과 마스크 임베딩의 분포 혼합 형태로 마스킹된 위치를 유지함으로써, 모델이 보다 전역적으로 일관된 믿음을 형성할 수 있도록 한다. 두 번째 단계에서는 확신이 있는 토큰을 점진적으로 최종화하면서 불확실한 토큰은 반복 피드백을 위해 유지한다. KL 발산 동역학(KL-divergence dynamics)은 수렴 여부와 조기 중단을 판단하는 원리적이고 신뢰할 수 있는 기준을 제공한다. 코딩(HumanEval +6.3, MBPP +2.6) 및 추론(GSM8K +2.9, MATH500 +3.8) 분야에서의 실험 결과를 통해 LRD가 정확도를 향상시키면서 동시에 최대 10.6배의 속도 향상을 제공함을 확인하였으며, 병렬 시퀀스 생성을 위한 강력하고 유연한 대안임을 입증하였다.

AI로 AI 구축

아이디어에서 출시까지 — 무료 AI 공동 코딩, 즉시 사용 가능한 환경, 최적 가격 GPU로 AI 개발을 가속화하세요.

AI 공동 코딩
즉시 사용 가능한 GPU
최적 가격
시작하기

Hyper Newsletters

최신 정보 구독하기
한국 시간 매주 월요일 오전 9시 에 이번 주의 최신 업데이트를 메일로 발송합니다
이메일 서비스 제공: MailChimp
잠재적 개선 디코딩: 믿음 상태의 개선을 통한 확산 기반 언어 모델의 성능 향상 | 연구 논문 | HyperAI초신경