HyperAIHyperAI
منذ 11 أيام

DoRA: التكييف منخفض الرتبة المعتمد على فك التوزيع الوزني

Shih-Yang Liu, Chien-Yi Wang, Hongxu Yin, Pavlo Molchanov, Yu-Chiang Frank Wang, Kwang-Ting Cheng, Min-Hung Chen
DoRA: التكييف منخفض الرتبة المعتمد على فك التوزيع الوزني
الملخص

من بين الطرق الشائعة لتعديل المعلمات الفعالة (PEFT)، اكتسبت LoRA ومشتقاتها شعبية كبيرة بفضل تجنبها لتكاليف الاستنتاج الإضافية. ومع ذلك، يظل هناك غالبًا فجوة في الدقة بين هذه الطرق والتعديل الكامل (FT). في هذه الدراسة، نقدّم أولًا تحليلًا جديدًا لتحليل تفكيك الوزن لاستكشاف الفروق الجوهرية بين FT وLoRA. وبالنظر إلى قدرة التعلم التي تم التوصل إليها، نقترح طريقة تُسمى "LoRA المُفكّكة حسب الوزن" (DoRA). تُفكّك DoRA الوزن المُدرّب مسبقًا إلى مكونين: المقدار والاتجاه، وذلك لغرض التدريب المُعدّل، حيث تستخدم LoRA بشكل خاص لتحديث الاتجاه، مما يُمكّن من تقليل عدد المعلمات القابلة للتدريب بشكل فعّال. وباستخدام \ours، نعزّز قدرة التعلّم والاستقرار التدريبي لـ LoRA مع تجنّب أي تكاليف إضافية أثناء الاستنتاج. تتفوّق \ours باستمرار على LoRA في تدريب نماذج LLaMA وLLaVA وVL-BART على مهام متعددة في المهام التالية: الاستدلال السليم، التدريب التوجيهي البصري، وفهم النص/الصورة/الفيديو. يُمكن الوصول إلى الشيفرة عبر الرابط: https://github.com/NVlabs/DoRA.

DoRA: التكييف منخفض الرتبة المعتمد على فك التوزيع الوزني | أحدث الأوراق البحثية | HyperAI