HyperAIHyperAI

Command Palette

Search for a command to run...

مجموعة ALBERT على SQuAD 2.0

Shilun Li Renee Li Veronica Peng

الملخص

الإجابة على الأسئلة الآلية هي مهمة أساسية ولكنها صعبة في معالجة اللغة الطبيعية. في الآونة الأخيرة، لاقت نماذج التضمين السياقي المُدرّب مسبقًا (PCE)، مثل Bidirectional Encoder Representations from Transformers (BERT) و A Lite BERT (ALBERT)، اهتمامًا كبيرًا بفضل أدائها المتميز في مجموعة واسعة من مهام معالجة اللغة الطبيعية. في هذا البحث، استخدمنا نماذج ALBERT المُعدّلة بدقة، ونفذنا تراكيب من طبقات إضافية (مثل طبقة الانتباه، وطبقة الشبكة العصبية التكرارية RNN) فوقها لتحسين أداء النموذج على مجموعة بيانات الإجابة على الأسئلة ستانفورد (SQuAD 2.0). تم تنفيذ أربعة نماذج مختلفة مع طبقات مختلفة فوق نموذج ALBERT-base، بالإضافة إلى نموذجين آخرين مبنين على ALBERT-xlarge و ALBERT-xxlarge. قمنا بمقارنة أدائهم مع النموذج الأساسي (baseline) ALBERT-base-v2 + ALBERT-SQuAD-out بالتفصيل. وكان أفضل نموذج فردي أداءً هو ALBERT-xxlarge + ALBERT-SQuAD-out، والذي حقق مقياس F1 قدره 88.435 على مجموعة التحقق (dev set). علاوة على ذلك، قمنا بتنفيذ ثلاثة خوارزميات مختلفة للتكامل (ensemble) لتعزيز الأداء العام. من خلال إدخال نتائج عدة نماذج ذات أداء عالٍ إلى خوارزميتنا المُعتمدة على التصويت الموزون، تمكنّا من تحقيق النتيجة النهائية التي تحتل المرتبة الأولى في قائمة التصنيف الخاصة بـ Stanford CS224N Test PCE SQuAD، بتحقيق مقياس F1 قدره 90.123.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp
مجموعة ALBERT على SQuAD 2.0 | مستندات | HyperAI