HyperAIHyperAI

Command Palette

Search for a command to run...

Mixture-of-Subspaces in Low-Rank Adaptation

Taiqiang Wu Jiahao Wang Zhe Zhao Ngai Wong

Zusammenfassung

In diesem Artikel stellen wir eine auf Unterräumen basierende Low-Rank-Adaptation (LoRA)-Methode vor, die recheneffizient, einfach umzusetzen und problemlos auf große Sprach-, multimodale sowie Diffusionsmodelle anwendbar ist. Zunächst zerlegen wir die Gewichte von LoRA äquivalent in zwei Unterräume und stellen fest, dass eine einfache Mischung dieser Unterräume die Leistung verbessert. Um dieses Phänomen genauer zu untersuchen, betrachten wir es erneut durch eine fein granulierte Unterraum-Perspektive und zeigen, dass eine solche Modifikation äquivalent dazu ist, einen festen Mixer zur Fusion der Unterräume einzusetzen. Um mehr Flexibilität zu erreichen, lernen wir den Mixer gemeinsam mit den ursprünglichen LoRA-Gewichten, und bezeichnen die Methode als Mixture-of-Subspaces LoRA (MoSLoRA). MoSLoRA übertrifft konsistent die Leistung von LoRA bei Aufgaben unterschiedlicher Modalitäten, einschließlich alltagsweltlicher Schlussfolgerung, visueller Anweisungstuning sowie themenbasiertem Text-zu-Bild-Generieren, was ihre Wirksamkeit und Robustheit belegt. Der Quellcode ist unter https://github.com/wutaiqiang/MoSLoRA{github} verfügbar.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Mixture-of-Subspaces in Low-Rank Adaptation | Paper | HyperAI