HyperAIHyperAI

Command Palette

Search for a command to run...

شبكات العصب العميق متعددة المهام لفهم اللغة الطبيعية

Xiaodong Liu; Pengcheng He; Weizhu Chen; Jianfeng Gao

الملخص

في هذا البحث، نقدم شبكة عصبية عميقة متعددة المهام (MT-DNN) لتعلم التمثيلات عبر مهام فهم اللغة الطبيعية (NLU) المتعددة. لا يقتصر MT-DNN على الاستفادة من كميات كبيرة من البيانات بين المهام فحسب، بل يحقق أيضًا تأثير تسوية يساهم في إنتاج تمثيلات أكثر عمومية للتكيف مع مهام ونطاقات جديدة. يقوم MT-DNN بتوسيع النموذج المقترح في دراسة Liu et al. (2015) من خلال دمج نموذج لغوي تحويلي ثنائي الاتجاه تم تدريبه مسبقًا، المعروف باسم BERT (Devlin et al., 2018). حقق MT-DNN نتائج جديدة رائدة في عشرة مهام لفهم اللغة الطبيعية، بما في ذلك SNLI وSciTail وثمانية من تسعة مهام GLUE، مما رفع مستوى مقاييس GLUE إلى 82.7% (تحسين بنسبة 2.2% مطلقة). كما أظهرنا باستخدام بيانات SNLI وSciTail أن التمثيلات التي يتم تعلمها بواسطة MT-DNN تسمح بالتكيف بين المجالات باستخدام عدد أقل بكثير من العلامات داخل المجال مقارنة بتمثيلات BERT المدربة مسبقًا. الكود والنموذج المدرب مسبقًا متاحان بشكل عام على الرابط https://github.com/namisan/mt-dnn.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp
شبكات العصب العميق متعددة المهام لفهم اللغة الطبيعية | مستندات | HyperAI