HyperAIHyperAI

Command Palette

Search for a command to run...

DoRA:重み分解型低ランク適応

Shih-Yang Liu Chien-Yi Wang Hongxu Yin Pavlo Molchanov Yu-Chiang Frank Wang Kwang-Ting Cheng Min-Hung Chen

概要

広く用いられているパラメータ効率的な微調整(PEFT)手法の中でも、LoRAおよびその変種は、推論時の追加コストを回避できる点から大きな人気を博している。しかし、これらの手法とフル微調整(FT)との間に依然として精度のギャップが存在することが多い。本研究では、まずFTとLoRAの本質的な差異を解明するため、新たな重み分解解析を導入する。この解析の知見をもとに、FTの学習能力を再現することを目的として、重み分解型低ランク適応(DoRA)を提案する。DoRAは、事前学習済み重みを「大きさ」と「方向」の二つの成分に分解し、微調整を行う。特に、方向成分の更新にLoRAを活用することで、学習可能なパラメータ数を効率的に最小化する。本手法を採用することで、LoRAの学習能力と訓練安定性を向上させつつ、推論時の追加オーバーヘッドを一切発生させない。実験結果から、DoRAは、共感的推論、視覚的インストラクションチューニング、画像/動画・テキスト理解といった多様な下流タスクにおいて、LLaMA、LLaVA、VL-BARTの微調整において、常にLoRAを上回る性能を示した。コードは https://github.com/NVlabs/DoRA にて公開されている。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています
DoRA:重み分解型低ランク適応 | 記事 | HyperAI超神経