الشكّ不确定性 للتوحيد التدرجي في التعلم متعدد المهام

مع تزايد أهمية التعلم الآلي، يزداد الطلب على أداء عدة مهام استنتاجية بالتوازي. ويعتبر تشغيل نموذج مخصص لكل مهمة أمرًا مكلفًا من حيث الحوسبة، وبالتالي هناك اهتمام كبير بالتعلم متعدد المهام (MTL). يهدف MTL إلى تعلم نموذج واحد قادر على حل عدة مهام بكفاءة. وغالبًا ما يتم تحسين نماذج MTL من خلال حساب متجه تدرج واحد لكل مهمة، ثم تجميع هذه المتجهات للحصول على اتجاه تحديث مدمج. ومع ذلك، فإن هذه الطرق لا تأخذ بعين الاعتبار جانبًا مهمًا، وهو حساسية أبعاد المتجهات التدرجية. في هذا العمل، نقدم منهجية جديدة لجمع التدرجات باستخدام الاستدلال بايزي. نضع توزيعًا احتماليًا على المعلمات المحددة لكل مهمة، مما يؤدي إلى توليد توزيع احتمالي على تدرجات المهام. وتوفر هذه المعلومات الإضافية القيّمة إمكانية قياس عدم اليقين في كل بعد من أبعاد التدرج، والتي يمكن حينها أخذها بعين الاعتبار أثناء عملية جمع التدرجات. ونُظهر تجريبيًا فوائد منهجيتنا في مجموعة متنوعة من مجموعات البيانات، حيث نحقق أداءً من الطراز الأول في المجال.