HyperAIHyperAI

Command Palette

Search for a command to run...

DoRA: Gewichtsdekomponierte niedrigrangige Anpassung

Shih-Yang Liu Chien-Yi Wang Hongxu Yin Pavlo Molchanov Yu-Chiang Frank Wang Kwang-Ting Cheng Min-Hung Chen

Zusammenfassung

Unter den weit verbreiteten verlustarmen Feinabstimmungsmethoden (Parameter-Efficient Fine-Tuning, PEFT) haben LoRA und deren Varianten erhebliche Beliebtheit erlangt, da sie zusätzliche Kosten bei der Inferenz vermeiden. Dennoch besteht häufig eine Genauigkeitslücke zwischen diesen Methoden und der vollständigen Feinabstimmung (Full Fine-Tuning, FT). In dieser Arbeit führen wir zunächst eine neuartige Gewichtszerlegungsanalyse ein, um die inhärenten Unterschiede zwischen FT und LoRA zu untersuchen. Auf der Grundlage dieser Erkenntnisse schlagen wir Weight-Decomposed Low-Rank Adaptation (DoRA) vor, um die Lernkapazität von FT nachzuahmen. DoRA zerlegt das vortrainierte Gewicht in zwei Komponenten – Betrag und Richtung – zur Feinabstimmung und verwendet speziell LoRA für die Richtungsanpassungen, um die Anzahl der trainierbaren Parameter effizient zu minimieren. Durch die Verwendung von \oursverstärken wir sowohl die Lernkapazität als auch die Trainingsstabilität von LoRA, ohne zusätzliche Inferenzkosten zu verursachen. \oursübertrifft konsistent LoRA bei der Feinabstimmung von LLaMA, LLaVA und VL-BART auf verschiedenen Downstream-Aufgaben wie allgemeine Vernunftschlussfolgerung, visuelle Anweisungstuning sowie Bild-/Video-Text-Verständnis. Der Quellcode ist unter https://github.com/NVlabs/DoRA verfügbar.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp