{Jianhua Lu Weitong Ruan Xinyue Liu Luoxin Chen}

الملخص
أظهر التدريب المضاد (AT) تأثيرات تنظيمية قوية على خوارزميات التعلم العميق من خلال إدخال اضطرابات صغيرة في المدخلات لتحسين مقاومة النموذج. وفي المهام اللغوية، يُعزز التدريب المضاد المقاومة على مستوى الكلمات من خلال إضافة ضوضاء إلى المدخلات، وهو ما يُعد مفيدًا للتصنيف النصي. ومع ذلك، فإنه يفتقر إلى تحسين كافٍ للمعلومات السياقية، مما يجعله أقل فعالية في المهام التي تتطلب تسمية التسلسلات مثل تجزئة الجمل (chunking) وتحديد الكيانات الاسمية (NER). لمعالجة هذه القيود، نقترح طريقة التدريب المضاد المُغَمَّى (MAT) لتحسين المقاومة من خلال تعزيز المعلومات السياقية في مهام تسمية التسلسلات. تُستخدم طريقة MAT في حساب الخسارة المضادة بتغطية أو استبدال بعض الكلمات في الجملة عند معالجة المدخلات المُضطربة، مما يؤدي إلى تعزيز مقاومة النموذج باستخدام معلومات أكثر على مستوى السياق. أظهرت تجاربنا تحسنًا ملحوظًا في الدقة والمقاومة في مهام تسمية التسلسلات. وبدمجها مع تمثيلات ELMo، تحقق نماذجنا نتائج أفضل أو مماثلة للحالة الراهنة على معايير CoNLL 2000 و2003، مع استخدام عدد أقل بكثير من المعاملات.
المعايير القياسية
| معيار قياسي | المنهجية | المقاييس |
|---|---|---|
| chunking-on-conll-2000 | ELMo + MAT + Multi-Task | Exact Span F1: 97.04 |
بناء الذكاء الاصطناعي بالذكاء الاصطناعي
من الفكرة إلى الإطلاق — عجّل تطوير الذكاء الاصطناعي الخاص بك من خلال البرمجة المشتركة المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.