Command Palette
Search for a command to run...
Kooperatives Diffusions-Autoregressions-Paradigma (SDAR)
Synergistic Diffusion-Autoregression (SDAR) wurde im Oktober 2025 vom Shanghai Artificial Intelligence Laboratory vorgeschlagen, und die entsprechenden Forschungsergebnisse wurden in der Arbeit „SDAR: Ein synergistisches Diffusions-Autoregressions-Paradigma für skalierbare Sequenzgenerierung".
SDAR ist ein kooperatives Diffusions-Autoregressions-Paradigma, das ein neuartiges Framework für die Sprachmodellierung etabliert. Es kombiniert die Trainingseffizienz der Autoregression mit den parallelen Inferenzfähigkeiten der Diffusion und zielt darauf ab, die Effizienz des autoregressiven Trainings mit der Parallelität der diffusionsbasierten Inferenz zu vereinen. Das Kernprinzip besteht in der Entkopplung zweier Phasen: Zunächst wird ein umfassendes AR-Vortraining durchgeführt, um Stabilität und Effizienz zu gewährleisten. Anschließend wird eine schlanke Anpassungsphase eingeführt, die es dem Modell ermöglicht, blockbasierte Diffusionsdekodierung durchzuführen. Dieses Design bewahrt die praktischen Vorteile der AR – wie Key-Value-Caching, Generierung variabler Länge und robustes Optimierungsverhalten – und nutzt gleichzeitig die einzigartigen Vorteile der intrablockparallelen Generierung der Diffusion.
Build AI with AI
From idea to launch — accelerate your AI development with free AI co-coding, out-of-the-box environment and best price of GPUs.