منذ 8 أيام
مُحَوِّل رُسمِيّات رُسُومٍ مُتَعَامِلٍ بِالوَعِي بِالصِّيغَة لِتَعْلِيمِ الدَّلالةِ الوَظِيفِيَّة
Alireza Mohammadshahi, James Henderson

الملخص
أظهرت النماذج الحديثة أن دمج المعرفة النحوية في مهمة تسمية الأدوار المعجمية (SRL) يؤدي إلى تحسن كبير. في هذه الورقة، نقترح نموذجًا يُعرف بـ "Transformer الرسومي-الرسومي المُدرك للنحو" (SynG2G-Tr)، الذي يُشغّل البنية النحوية بطريقة مبتكرة من خلال إدخال العلاقات الرسومية كتمثيلات (embeddings) مباشرةً في آلية الانتباه الذاتي في نموذج Transformer. يُضيف هذا النهج انحيازًا لطيفًا نحو أنماط الانتباه التي تتبع البنية النحوية، مع السماح للنموذج أيضًا باستخدام هذه المعلومات لاستكشاف أنماط بديلة. تم تقييم نموذجنا على مجموعتي بيانات تعتمدان على الفترات (span-based) والاعتماد (dependency-based) لـ SRL، وتفوّقنا على الطرق البديلة السابقة في كلا الحالتين: داخل المجال (in-domain) وخارج المجال (out-of-domain)، على مجموعتي بيانات CoNLL 2005 وCoNLL 2009.