نموذج طبقي عصبي للتعرف على الكيانات الاسمية المتشابكة

الإشارات الكيانية المضمنة داخل إشارات كيانات أطول تُعرف بـ "الكيانات المتشابكة". تعامل معظم نماذج التعرف على الكيانات الاسمية (NER) فقط مع الكيانات المستوية، وتجاهل الكيانات المتشابكة الداخلية، مما يؤدي إلى فشل في استخلاص المعلومات الدقيقة المعنى المضمنة في النصوص الأصلية. ولحل هذه المشكلة، نقترح نموذجًا عصبيًا جديدًا لتحديد الكيانات المتشابكة من خلال تجميع طبقات NER المستوية بشكل ديناميكي. تعتمد كل طبقة NER مستوية على أحدث نموذج لـ NER المستوية، والذي يُمكّن من تمثيل السياق التسلسلي باستخدام طبقة ذاكرة طويلة قصيرة الأجل ثنائية الاتجاه (LSTM) ويُرسل الناتج إلى طبقة CRF متسلسلة. يدمج نموذجنا مخرجات طبقة LSTM في الطبقة الحالية من NER المستوية لبناء تمثيل جديد للكيانات المكتشفة، ثم يُرسل هذا التمثيل إلى الطبقة التالية من NER المستوية. وهذا يتيح لنموذجنا استخلاص الكيانات الخارجية من خلال الاستفادة الكاملة من المعلومات المُشفَّرة في الكيانات الداخلية المقابلة لها، بطريقة من الداخل إلى الخارج. ويستمر نموذجنا في تجميع طبقات NER المستوية بشكل ديناميكي حتى لا يتم اكتشاف أي كيانات خارجية إضافية. أظهرت التقييمات الواسعة أن النموذج الديناميكي يتفوق على النماذج الحالية القائمة على الميزات في مهمة NER المتشابكة، محققاً معدلات F-score قدرها 74.7% و72.2% على مجموعتي بيانات GENIA وACE2005 على التوالي.