Command Palette

Search for a command to run...

한 달 전

CoDA: 확산 적응을 통한 언어 모델의 코딩

CoDA: 확산 적응을 통한 언어 모델의 코딩

초록

확산 언어 모델은 순방향 자동 회귀 코더가 갖지 못한 이방향 컨텍스트 처리 및 중간 채우기(인필링) 기능을 제공할 것으로 기대되지만, 실용적인 시스템은 여전히 무거운 부담을 안고 있다. 우리는 TPU에서 훈련된 17억 파라미터의 확산 코더인 CoDA를 소개한다. CoDA는 완전히 오픈소스 훈련 파이프라인을 갖추고 있으며, 대규모 확산 사전 훈련을 코드 중심의 중간 훈련 및 지시 조정(instruction tuning)과 결합함으로써, 추론 지연(latency)을 경쟁 수준으로 유지하면서 신뢰도 기반 샘플링을 가능하게 한다. Humaneval, MBPP, EvalPlus 평가에서 CoDA-1.7B-Instruct는 최대 70억 파라미터 규모의 확산 모델과 비교해도 동등하거나 이를 능가한다. 본 연구에서 공개하는 내용에는 모델 체크포인트, 평가용 허니스(평가 허브), TPU 기반 훈련 파이프라인 등이 포함되어 있어, 경량 확산 기반 코딩 보조 도구에 대한 연구를 가속화할 수 있다.

AI로 AI 구축

아이디어에서 출시까지 — 무료 AI 공동 코딩, 즉시 사용 가능한 환경, 최적 가격 GPU로 AI 개발을 가속화하세요.

AI 공동 코딩
즉시 사용 가능한 GPU
최적 가격
시작하기

Hyper Newsletters

최신 정보 구독하기
한국 시간 매주 월요일 오전 9시 에 이번 주의 최신 업데이트를 메일로 발송합니다
이메일 서비스 제공: MailChimp
CoDA: 확산 적응을 통한 언어 모델의 코딩 | 연구 논문 | HyperAI초신경