HyperAIHyperAI
منذ 11 أيام

الشكّ不确定性 للتوحيد التدرجي في التعلم متعدد المهام

Idan Achituve, Idit Diamant, Arnon Netzer, Gal Chechik, Ethan Fetaya
الشكّ不确定性 للتوحيد التدرجي في التعلم متعدد المهام
الملخص

مع تزايد أهمية التعلم الآلي، يزداد الطلب على أداء عدة مهام استنتاجية بالتوازي. ويعتبر تشغيل نموذج مخصص لكل مهمة أمرًا مكلفًا من حيث الحوسبة، وبالتالي هناك اهتمام كبير بالتعلم متعدد المهام (MTL). يهدف MTL إلى تعلم نموذج واحد قادر على حل عدة مهام بكفاءة. وغالبًا ما يتم تحسين نماذج MTL من خلال حساب متجه تدرج واحد لكل مهمة، ثم تجميع هذه المتجهات للحصول على اتجاه تحديث مدمج. ومع ذلك، فإن هذه الطرق لا تأخذ بعين الاعتبار جانبًا مهمًا، وهو حساسية أبعاد المتجهات التدرجية. في هذا العمل، نقدم منهجية جديدة لجمع التدرجات باستخدام الاستدلال بايزي. نضع توزيعًا احتماليًا على المعلمات المحددة لكل مهمة، مما يؤدي إلى توليد توزيع احتمالي على تدرجات المهام. وتوفر هذه المعلومات الإضافية القيّمة إمكانية قياس عدم اليقين في كل بعد من أبعاد التدرج، والتي يمكن حينها أخذها بعين الاعتبار أثناء عملية جمع التدرجات. ونُظهر تجريبيًا فوائد منهجيتنا في مجموعة متنوعة من مجموعات البيانات، حيث نحقق أداءً من الطراز الأول في المجال.

الشكّ不确定性 للتوحيد التدرجي في التعلم متعدد المهام | أحدث الأوراق البحثية | HyperAI