HyperAIHyperAI

Command Palette

Search for a command to run...

TENER: تكييف مشغل التحويل لتحديد الكيانات المحددة

Hang Yan Bocao Deng Xiaonan Li Xipeng Qiu

الملخص

تم استخدام شبكات الذاكرة الطويلة القصيرة双向ية (BiLSTM) على نطاق واسع كمُشفر (Encoder) في النماذج التي تحلّ مسألة التعرف على الكيانات المحددة (NER). في الآونة الأخيرة، أصبحت نموذج الـ Transformer مُعتمدًا على نطاق واسع في مختلف مهام معالجة اللغة الطبيعية (NLP) بفضل قدرته على المعالجة المتوازية وأدائه المتميز. ومع ذلك، لا يُظهر الـ Transformer أداءً جيدًا في مهام NER مقارنةً بأدائه في مهام NLP الأخرى. في هذا البحث، نقترح نموذج TENER، وهو معمارية لمعالجة NER تستخدم مشفرًا مُعدّلًا من نوع Transformer لنمذجة السمات على مستوى الحروف وعلى مستوى الكلمات. من خلال دمج انتباه يراعي الاتجاه والمسافة النسبية، بالإضافة إلى انتباه غير مُعدّل (unscaled attention)، نُثبت أن مشفرًا على غرار Transformer يمكن أن يكون فعّالاً بنفس الدرجة في مهام NER كما هو الحال في المهام الأخرى لمعالجة اللغة الطبيعية.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp