HyperAIHyperAI
منذ 17 أيام

تُحسّن التخصيص العميق للمهمة سحب الكيان والعلاقة المشتركين

Phil Crone
تُحسّن التخصيص العميق للمهمة سحب الكيان والعلاقة المشتركين
الملخص

يُعد التعلم متعدد المهام (MTL) طريقة فعّالة لتعلم المهام المرتبطة ببعضها، لكن تصميم نماذج MTL يتطلب تحديد عدد المعلمات التي ينبغي أن تكون مخصصة لكل مهمة مقابل المعلمات المشتركة بين المهام. نستعرض هذه المسألة في سياق مشكلة التعلم المشترك بين التعرف على الكيانات المعرفية (NER) واستخراج العلاقات (RE)، ونُقدّم معمارية عصبية جديدة تسمح بدرجة أعمق من التخصيص المهمة مقارنة بالعمل السابق. وبشكل خاص، نُضيف طبقات إضافية ثنائية الاتجاه من الشبكات العصبية التكرارية (RNN) لكل من مهام NER وRE، ونُضبط عدد الطبقات المشتركة والطُبقات المخصصة بشكل منفصل لكل مجموعة بيانات مختلفة. ونحقق نتائج متقدمة (SOTA) في كلا المهمتين على مجموعة بيانات ADE؛ وعلى مجموعة بيانات CoNLL04، نحقق نتائج متقدمة في مهمة NER، ونتائج تنافسية في مهمة RE، مع استخدام عدد من المعلمات القابلة للتدريب أقل بعشرة أضعاف مقارنة بالبنية الحالية التي تُعتبر الأفضل. كما تؤكد دراسة الإزالة (ablation study) أهمية الطبقات المخصصة الإضافية لتحقيق هذه النتائج. يشير عملنا إلى أن الحلول السابقة لمشكلة التعلم المشترك بين NER وRE كانت تُقلل من أهمية التخصيص المهمة، ويدل على أهمية تحقيق التوازن الصحيح بين عدد المعلمات المشتركة والمتخصصة في نماذج MTL بشكل عام.