HyperAIHyperAI

Command Palette

Search for a command to run...

vor einem Monat

CoDA: Codierung von LM mittels Diffusionsanpassung

CoDA: Codierung von LM mittels Diffusionsanpassung

Abstract

Diffusions-Sprachmodelle versprechen bidirektionale Kontextinformation und Infilling-Fähigkeiten, die autoregressive Codierer vermissen, doch praktische Systeme bleiben schwerfällig. Wir stellen CoDA vor, einen 1,7-Billionen-Parameter-Modell-Diffusionscoder, der auf TPU trainiert wurde und über eine vollständig open-source-Trainingspipeline verfügt. CoDA kombiniert großskaliges Diffusions-Pre-Training mit codezentriertem Mid-Training und Anweisungstuning, wodurch sampling-basierte Prozesse mit Vertrauensschwelle ermöglicht werden, die die Inferenzlatenz wettbewerbsfähig halten. Auf den Benchmarks Humaneval, MBPP und EvalPlus erreicht oder übertrifft CoDA-1,7B-Instruct Diffusionsmodelle mit bis zu 7 Milliarden Parametern. Unsere Veröffentlichung umfasst Modell-Checkpoint, Evaluations-Harnesses sowie TPU-Trainings-Pipelines, um die Forschung an leichten, auf Diffusion basierenden Code-Assistenten zu beschleunigen.

KI mit KI entwickeln

Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.

KI-Co-Coding
Sofort einsatzbereit GPUs
Beste Preise
Jetzt starten

Hyper Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
CoDA: Codierung von LM mittels Diffusionsanpassung | Forschungsarbeiten | HyperAI