Command Palette
Search for a command to run...
LoFT: التخصيص الفعّال من حيث المعلّمات للتعلم شبه المراقب للسياقات الطويلة التوزيع في سيناريوهات العالم المفتوح
Jiahao Chen Zhiyuan Huang Yurou Liu Bing Su

الملخص
لقد اكتسبت التعلم الطويل الذيل (Long-tailed learning) اهتمامًا متزايدًا بسبب تطبيقاتها الواسعة في السيناريوهات الواقعية. من بين الطرق الحالية، ظهر التعلم شبه المُراقب الطويل الذيل (Long-Tailed Semi-Supervised Learning - LTSSL) كحل فعّال من خلال دمج كمّ كبير من البيانات غير المُعلَّمة في المجموعة المُعلَّمة غير المتوازنة. ومع ذلك، فإن معظم الطرق السابقة المُستخدمة في LTSSL مصممة لتدريب النماذج من الصفر، ما يؤدي غالبًا إلى مشكلات مثل التفاؤل المفرط وانعدام جودة التسميات الوهمية (pseudo-labels). لمعالجة هذه التحديات، نوسع إطار LTSSL ليتماشى مع نمط تحسين النماذج الأساسية (foundation model fine-tuning)، ونُقدِّم إطارًا جديدًا يُسمَّى LoFT (Long-tailed semi-supervised learning via parameter-efficient Fine-Tuning). ونُظهر أن النماذج الأساسية التي تم تحسينها تُنتج تسميات وهمية أكثر موثوقية، مما يُسهم في تحسين التعلم في السياقات غير المتوازنة. علاوةً على ذلك، نستكشف بيئة أكثر واقعية من خلال دراسة التعلم شبه المُراقب في ظل ظروف عالم مفتوح (open-world)، حيث قد تضم البيانات غير المُعلَّمة عينات خارج التوزيع (out-of-distribution - OOD). وللتعامل مع هذه المشكلة، نُقدِّم LoFT-OW (LoFT في السيناريوهات المفتوحة) لتعزيز القدرة التمييزية. وتُظهر النتائج التجريبية على عدة معايير أداءً متفوّقًا مقارنةً بالأساليب السابقة، حتى عند استخدام 1% فقط من البيانات غير المُعلَّمة مقارنةً بالدراسات السابقة.
بناء الذكاء الاصطناعي بالذكاء الاصطناعي
من الفكرة إلى الإطلاق — عجّل تطوير الذكاء الاصطناعي الخاص بك من خلال البرمجة المشتركة المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.