إطار عمل يعتمد على Transformer ويعتمد على الحدود غير المطلوبة لـ NLU متعددة النوايا

لقد اكتسب فهم اللغة الطبيعية متعددة النوايا (NLU) اهتمامًا متزايدًا مؤخرًا. حيث يتم اكتشاف أكثر من نية واحدة في عبارة واحدة، مما يجعله أكثر ملاءمة للسياقات الواقعية. ومع ذلك، فإن النماذج الحالية المتميزة في فهم اللغة الطبيعية المشتركة تُركّز في الغالب على اكتشاف النوايا المتعددة باستخدام استراتيجية تعتمد على حدّ معين، مما يؤدي إلى مشكلة رئيسية: حساسية النموذج بشكل كبير تجاه إعدادات الحد. في هذه الورقة، نقترح نموذجًا قائمًا على المُحَوِّل (Transformer) يُسمى TFMN (نموذج فهم اللغة الطبيعية متعدد النوايا بدون حدود)، يعتمد على التعلم متعدد المهام (MTL). بشكل خاص، نستخدم في البداية طبقات متعددة من معالج مبني على المُحَوِّل لاستخلاص تمثيلات متعددة الحُسْن (Multi-grain representations). ثم نستفيد من معلومات عدد النوايا المتعددة في كل عبارة دون الحاجة إلى تسميات يدوية إضافية، ونُقدّم مهمة اكتشاف ثانوية: اكتشاف عدد النوايا (IND). علاوة على ذلك، نقترح فئة تصنيف متعددة النوايا بدون حدود تعتمد على إخراج مهمة IND، وتنجز اكتشاف النوايا المتعددة دون الاعتماد على حدّ محدد. أظهرت التجارب الواسعة أن النموذج المقترح يحقق نتائج متفوقة على مجموعتي بيانات عامة متعددات النوايا.