ما الذي تتعلمه شبكات النơرون المتكررة عن الصناعة اللغوية؟

الشبكات العصبية التكرارية للقواعد اللغوية (RNNG) هي عائلة نماذج توليدية احتمالية تم اقتراحها مؤخرًا للغة الطبيعية. وتظهر هذه النماذج أداءً متميزًا في مجال نمذجة اللغة وتحليل الجمل. قمنا بدراسة المعلومات التي تتعلمها هذه النماذج من وجهة نظر لinguistic، وذلك من خلال إجراء العديد من الاختبارات المبتورة على النموذج والبيانات، وبتعزيز النموذج بآلية الانتباه (GA-RNNG) لتمكين الفحص الأقرب. وقد وجدنا أن النمذجة الصريحة للتراكيب ضرورية لتحقيق أفضل الأداء. ومن خلال آلية الانتباه، وجدنا أن الهيمنة تلعب دورًا محوريًا في تمثيل الجمل (مع وجود اتفاق كبير بين انتباه النموذج الكامن والتوقعات التي يجري صنعها بواسطة قواعد الرأس اليدوية، رغم وجود بعض الاختلافات الهامة). وبالتدريب على القواعد دون استخدام علامات غير نهائية، وجدنا أن تمثيلات الجمل تعتمد بشكل طفيف على العلامات غير النهائية، مما يدعم فرضية المركزية الداخلية.