HyperAIHyperAI

Command Palette

Search for a command to run...

UDALM: التكيّف غير المُشرَّف للنطاق من خلال نمذجة اللغة

Constantinos Karouzos Georgios Paraskevopoulos Alexandros Potamianos

الملخص

في هذا العمل، نستكشف التكييف غير المراقب للنماذج اللغوية المُدرّبة مسبقًا (UDA) لمهام ما بعد التدريب. نقدّم UDALM، وهي طريقة لتعديل النموذج (fine-tuning)، تستخدم خسارة مختلطة تجمع بين خسارة التصنيف وLoss نموذج اللغة المُقنّع (Masked Language Model)، والتي تتيح التكيّف مع توزيع المجال المستهدف بطريقة مقاومة وفعّالة من حيث عدد العينات. تُظهر تجاربنا أن أداء النماذج المدربة باستخدام الخسارة المختلطة يتناسب مع كمية البيانات المتاحة من المجال المستهدف، كما أن الخسارة المختلطة يمكن استخدامها بفعالية كمعيار لإيقاف التدريب أثناء عملية التكييف غير المراقب. بالإضافة إلى ذلك، نناقش العلاقة بين مقياس A-distance وخطأ المجال المستهدف، ونستعرض بعض القيود المرتبطة بنموذج التدريب المُعاكس للنطاق (Domain Adversarial Training). تم تقييم طريقةنا على اثني عشر زوجًا من المجالات من مجموعة بيانات مراجعات أمازون للنبرة العاطفية، حيث حققت دقة قدرها 91.74٪، أي تحسنًا مطلقًا قدره 1.11٪ مقارنة بأحدث النماذج المتاحة.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp