SSD: إطار موحد للكشف عن القيم الشاذة ذاتي التدريب

نطرح السؤال التالي: ما نوع المعلومات التدريبية المطلوبة لتصميم كاشف فعّال للقيم الشاذة (outliers) أو للبيانات الخارجة عن التوزيع التدريبي (out-of-distribution (OOD))، أي الكشف عن العينات التي تبعد بشكل كبير عن توزيع البيانات التدريبية؟ وبما أن البيانات غير المُعلَّمة متاحة بسهولة في العديد من التطبيقات، فإن الأسلوب الأكثر إقناعًا هو تطوير كواشف تعتمد فقط على بيانات تدريب غير مُعلَّمة ضمن التوزيع (in-distribution). ومع ذلك، لاحظنا أن معظم الكواشف الحالية التي تعتمد على بيانات غير مُعلَّمة تؤدي أداءً ضعيفًا، وغالبًا ما تكون أداءها مماثلًا للتنبؤ العشوائي. في المقابل، تحقق الكواشف الرائدة حاليًا في مجال الكشف عن OOD أداءً متميزًا، لكنها تتطلب وصولًا إلى تسميات بيانات دقيقة لتدريب مراقب (supervised training). نقترح نموذج SSD، وهو كاشف للقيم الشاذة يعتمد فقط على بيانات غير مُعلَّمة ضمن التوزيع. نستخدم تعلم التمثيل الذاتي (self-supervised representation learning)، يتبعه كشف مبني على مسافة ماهالانوبيس (Mahalanobis distance) في فضاء الميزات. ونُظهر أن SSD يتفوق على معظم الكواشف الحالية التي تعتمد على بيانات غير مُعلَّمة بفارق كبير. علاوةً على ذلك، يحقق SSD أداءً مماثلًا، وأحيانًا حتى أفضل من، الكواشف القائمة على التدريب المراقب. وأخيرًا، نوسع إطارنا للكشف بدمج امتدادين رئيسيين: أولًا، نصوغ مفهوم الكشف عن OOD بعينات قليلة (few-shot OOD detection)، حيث يكون الكاشف مُتاحًا فقط بعينة واحدة إلى خمس عينات من كل فئة ضمن مجموعة OOD المستهدفة. ثانيًا، نوسع إطارنا ليدمج تسميات البيانات التدريبية إذا كانت متوفرة. ونجد أن الإطار الجديد للكشف القائم على SSD يُظهر أداءً محسّنًا بفضل هذين الامتدادين، ويحقق أداءً رائدًا في مجاله. يمكن الوصول إلى الكود الخاص بنا بشكل عام عبر الرابط التالي: https://github.com/inspire-group/SSD.