HyperAIHyperAI

Command Palette

Search for a command to run...

منذ 3 أشهر

الانتباه المُوجّه إلى الموضع والبيانات المُراقبة يُحسّنان ملء الفتحات

{Victor Zhong Gabor Angeli Danqi Chen Yuhao Zhang Christopher D. Manning}

الانتباه المُوجّه إلى الموضع والبيانات المُراقبة يُحسّنان ملء الفتحات

الملخص

يُعد المعرفة المرتبطة بشكل علاقة في شكل "مخططات المعرفة" أمرًا مهمًا لعدة تطبيقات. ومع ذلك، تطور القدرة على ملء قواعد المعرفة بالحقائق المستخلصة تلقائيًا من الوثائق كان بطيئًا جدًا. تتناول هذه الورقة بشكل متزامن مشكلتين عانتا منهما الأبحاث السابقة. نحن نقترح أولًا نموذجًا جديدًا فعّالًا، يدمج نموذج تسلسل LSTM مع نوع من الانتباه المُدرك لموقع الكيانات، والذي يكون أكثر ملاءمة لاستخراج العلاقات. ثم نُنشئ TACRED، وهو مجموعة بيانات مُعلَّمة كبيرة (119,474 مثالًا) تم الحصول عليها من خلال التوظيف الجماعي وتركز على علاقات TAC KBP. ونتيجةً لدمج بيانات مُعلَّمة أفضل مع نموذج أكثر ملاءمة وعالي القدرة، تتحسن أداء استخراج العلاقات بشكل كبير. عند استبدال المكون السابق لاستخراج العلاقات في أفضل نظام لملء الفراغات في TAC KBP 2015 باستخدام هذا النموذج الجديد، يرتفع متوسط الدقة (F1) بشكل ملحوظ من 22.2% إلى 26.7%.

المعايير القياسية

معيار قياسيالمنهجيةالمقاييس
relation-extraction-on-re-tacredPA-LSTM
F1: 79.4
relation-extraction-on-tacredPA-LSTM
F1: 65.1

بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — عجّل تطوير الذكاء الاصطناعي الخاص بك من خلال البرمجة المشتركة المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة المشتركة بالذكاء الاصطناعي
وحدات معالجة رسومات جاهزة
أفضل الأسعار
ابدأ الآن

Hyper Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp
الانتباه المُوجّه إلى الموضع والبيانات المُراقبة يُحسّنان ملء الفتحات | الأوراق البحثية | HyperAI