التعلم الناقِل المُضاد لاستخراج الكيانات المُعرفة في اللغة الصينية باستخدام آلية الانتباه الذاتي
{Yubo Chen Pengfei Cao Jun Zhao Shengping Liu Kang Liu}

الملخص
تمثيل الكيانات المحددة (NER) هو مهمة مهمة في مجال معالجة اللغة الطبيعية، والتي تتطلب تحديد حدود الكيانات وتصنيفها ضمن فئات محددة مسبقًا. بالنسبة لمهمة NER للغة الصينية، يوجد كمية ضئيلة جدًا من البيانات المُعلَّمة المتاحة. وتشترك مهمة NER للغة الصينية ومهمة تقسيم الكلمات الصينية (CWS) في وجود حدود كلمات متشابهة، ولكن كل مهمة تمتلك خصائص خاصة بها. ومع ذلك، فإن الطرق الحالية لمعالجة NER للغة الصينية إما لا تستفيد من معلومات حدود الكلمات المستمدة من CWS، أو لا تستطيع استبعاد المعلومات الخاصة بـ CWS. في هذه الورقة، نقترح إطارًا جديدًا للتعلم النقلية العدوية، يهدف إلى الاستفادة الكاملة من معلومات الحدود المشتركة بين المهام، ويعمل على منع انتقال السمات الخاصة بـ CWS. علاوةً على ذلك، نظرًا لأن الرموز الحرفية الفردية يمكن أن توفر مؤشرات مهمة عند توقع نوع الكيان، نستخدم الانتباه الذاتي (self-attention) لالتقاط الترابطات الطويلة المدى بين الرموز بشكل صريح. أظهرت النتائج التجريبية على مجموعتي بيانات مختلفتين واسعتي الاستخدام أن النموذج المقترح يتفوق بشكل ملحوظ ومستقر على الطرق الرائدة الأخرى.
المعايير القياسية
| معيار قياسي | المنهجية | المقاييس |
|---|---|---|
| chinese-named-entity-recognition-on-sighanner | BiLSTM+CRF+adversarial+self-attention | F1: 90.64 |
| chinese-named-entity-recognition-on-weibo-ner | BiLSTM+CRF+adversarial+self-attention | F1: 53.08 |
بناء الذكاء الاصطناعي بالذكاء الاصطناعي
من الفكرة إلى الإطلاق — عجّل تطوير الذكاء الاصطناعي الخاص بك من خلال البرمجة المشتركة المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.