شبكات العصب العميق متعددة المهام لفهم اللغة الطبيعية

في هذا البحث، نقدم شبكة عصبية عميقة متعددة المهام (MT-DNN) لتعلم التمثيلات عبر مهام فهم اللغة الطبيعية (NLU) المتعددة. لا يقتصر MT-DNN على الاستفادة من كميات كبيرة من البيانات بين المهام فحسب، بل يحقق أيضًا تأثير تسوية يساهم في إنتاج تمثيلات أكثر عمومية للتكيف مع مهام ونطاقات جديدة. يقوم MT-DNN بتوسيع النموذج المقترح في دراسة Liu et al. (2015) من خلال دمج نموذج لغوي تحويلي ثنائي الاتجاه تم تدريبه مسبقًا، المعروف باسم BERT (Devlin et al., 2018). حقق MT-DNN نتائج جديدة رائدة في عشرة مهام لفهم اللغة الطبيعية، بما في ذلك SNLI وSciTail وثمانية من تسعة مهام GLUE، مما رفع مستوى مقاييس GLUE إلى 82.7% (تحسين بنسبة 2.2% مطلقة). كما أظهرنا باستخدام بيانات SNLI وSciTail أن التمثيلات التي يتم تعلمها بواسطة MT-DNN تسمح بالتكيف بين المجالات باستخدام عدد أقل بكثير من العلامات داخل المجال مقارنة بتمثيلات BERT المدربة مسبقًا. الكود والنموذج المدرب مسبقًا متاحان بشكل عام على الرابط https://github.com/namisan/mt-dnn.