HyperAIHyperAI
منذ 8 أيام

التكيف الداخلي غير المراقب للتحليل الدلالي من خلال الإشراف الذاتي

Fei Pan, Inkyu Shin, Francois Rameau, Seokju Lee, In So Kweon
التكيف الداخلي غير المراقب للتحليل الدلالي من خلال الإشراف الذاتي
الملخص

أحرزت النماذج القائمة على الشبكات العصبية التلافيفية تقدماً ملحوظاً في التجزئة الدلالية. ومع ذلك، تعتمد هذه النماذج بشكل كبير على البيانات المُعلّمة، والتي تتطلب جهداً كبيراً من حيث التوظيف. لمعالجة هذه القيود، تُستخدم البيانات المُعلّمة تلقائياً، والتي تُولَّد من محركات الرسوميات، لتدريب نماذج التجزئة. لكن النماذج المدربة على البيانات الاصطناعية تواجه صعوبة في الانتقال إلى الصور الحقيقية. ولحل هذه المشكلة، اعتبرت الدراسات السابقة تكييف النماذج مباشرة من البيانات المصدرية إلى البيانات الهدف غير المُعلّمة (للتقليل من الفجوة بين المجالات). ومع ذلك، لا تأخذ هذه التقنيات في الاعتبار الفجوة الكبيرة في التوزيع بين البيانات الهدف نفسها (الفجوة داخل المجال). في هذا العمل، نقترح نهجاً ذاتي التعلّم خطوتين لتقليل الفجوات بين المجالات وداخل المجال معًا. أولاً، نُطبّق تكييف المجال بين المجالات على النموذج؛ ومن هذه العملية، نُقسّم المجال الهدف إلى جزأين: سهل وصعب، باستخدام دالة ترتيب تعتمد على الانتروبيا. وأخيراً، لخفض الفجوة داخل المجال، نقترح استخدام تقنية تكييف ذاتي التعلّم من الجزء السهل إلى الجزء الصعب. أظهرت النتائج التجريبية على العديد من مجموعات البيانات المعيارية فعالية طريقة العمل مقارنة بالأساليب الرائدة الحالية. ويتوفر الكود المصدري على الرابط التالي: https://github.com/feipan664/IntraDA.git.

التكيف الداخلي غير المراقب للتحليل الدلالي من خلال الإشراف الذاتي | أحدث الأوراق البحثية | HyperAI