منذ 4 أشهر
التدريب متعدد الرؤى ومتعدد المهام لمحررات التفسير النصي RST
{Anders S{\o}gaard Barbara Plank Chlo{\'e} Braud}

الملخص
نقوم بتجريب أساليب مختلفة لتدريب شبكات LSTM لتوقع أشجار التحليل النحوي لسياق RST. التحدي الرئيسي في تحليل سياق RST هو قلة كمية البيانات التدريبية. ونتغلب على هذا التحدي من خلال تنظيم نماذجنا باستخدام الإشراف على المهام من مهام ذات صلة، بالإضافة إلى وجهات نظر بديلة حول الهياكل السياقية. ونُظهر أن مُحلّل السياق التسلسلي البسيط باستخدام LSTM يستفيد من هذا الإطار متعدد الأوجه والمهام، حيث يحقق خفضًا في الأخطاء بنسبة 12-15٪ مقارنةً بالنموذج الأساسي (حسب المقياس)، ويُحقق نتائج تُنافس مُحلّلات الحالة المتقدمة الأكثر تعقيدًا.
المعايير القياسية
| معيار قياسي | المنهجية | المقاييس |
|---|---|---|
| discourse-parsing-on-rst-dt | LSTM Sequential Discourse Parser (Braud et al., 2016) | RST-Parseval (Full): 47.5* RST-Parseval (Nuclearity): 63.6* RST-Parseval (Relation): 47.7* RST-Parseval (Span): 79.7* |
بناء الذكاء الاصطناعي بالذكاء الاصطناعي
من الفكرة إلى الإطلاق — عجّل تطوير الذكاء الاصطناعي الخاص بك من خلال البرمجة المشتركة المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.
البرمجة المشتركة بالذكاء الاصطناعي
وحدات معالجة رسومات جاهزة
أفضل الأسعار
Hyper Newsletters
اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp