HyperAIHyperAI
منذ 17 أيام

إطار لتعلم التمثيل للتحليل التحويلي متعدد المصادر

{Ting Liu, Haifeng Wang, David Yarowsky, Wanxiang Che, Jiang Guo}
الملخص

يُعد نقل النموذج عبر اللغات من الأساليب الواعدة لاستخلاص معالجات الاعتماد (dependency parsers) للغات ذات الموارد المحدودة التي لا تتوفر فيها مجموعات بيانات مُعلّمة (treebanks). وتشكل العوائق الرئيسية أمام هذا النهج من نقل النموذج متمثلة في عاملين رئيسيين: أولاً، لا يمكن نقل السمات اللفظية (lexical features) مباشرة بين اللغات؛ وثانياً، يصعب استعادة الهياكل النحوية المميزة للغة المستهدفة. ولحل هذين التحديين، نقدم إطارًا جديدًا لتعلم التمثيل (representation learning) يدعم التحويل متعدد المصادر للتحليل النحوي. يتيح هذا الإطار التحويل متعدد المصادر باستخدام السمات اللفظية الكاملة بشكل مباشر. وعند التقييم على مجموعات بيانات Google Universal Dependencies (الإصدار 2.0)، حقق أفضل نماذجنا تحسنًا مطلقًا بنسبة 6.53% في متوسط درجة الارتباط المُعلّم (labeled attachment score)، مقارنة بالنماذج متعددة المصادر التي تُعَدّم السمات اللفظية. كما تفوقت نماذجنا بشكل كبير على النظام الحالي الأفضل في مجال التحويل المُقترح حديثًا.