التمثيلات الجملية في الاستدلال اللغوي مع مرممات التكرار

التمثيلات الجملية ضرورية لمجموعة متنوعة من مهام معالجة اللغة الطبيعية (NLP). أثبتت الشبكات العصبية التكرارية فعاليتها بشكل كبير في تعلم التمثيلات الموزعة ويمكن تدريبها بكفاءة على مهام الاستدلال اللغوي الطبيعي. نحن نبني على أساس أحد هذه النماذج ونقترح هرمًا يتكون من طبقات BiLSTM والترشيح الأقصى (max pooling) التي تنفذ استراتيجية تحسين متكررة وتقدم نتائجًا رائدة على مجموعة بيانات SciTail بالإضافة إلى نتائج قوية لـ SNLI و MultiNLI. يمكننا إظهار أن التمثيلات الجملية التي تم تعلمها بهذه الطريقة يمكن استخدامها في مجموعة متنوعة من مهام التعلم بالنقل، حيث تتفوق على InferSent في 7 من أصل 10 مهمة وتتفوق على SkipThought في 8 من أصل 9 مهمات تقييم التمثيلات الجملية SentEval. علاوة على ذلك، فإن نموذجنا يتفوق على نموذج InferSent في 8 من أصل 10 مهمات استكشاف SentEval التي تم نشرها مؤخرًا والمصممة لتقييم قدرة التمثيلات الجملية على التقاط بعض الخصائص اللغوية الهامة للجمل.