AdaCos: تكييف مقياس اللوجيتات الجيبية للتعلم الفعال لتمثيلات الوجه العميقة

حققت الخسائر المستندة إلى جيب التمام (cosine) وأصنافها نجاحًا كبيرًا في مجال التعرف على الوجوه القائم على التعلم العميق. ومع ذلك، فإن إعدادات المعلمات الفائقة في هذه الخسائر تؤثر بشكل كبير على مسار الأمثلية وأداء التعرف النهائي. تعتمد ضبط هذه المعلمات الفائقة يدويًا بشكل كبير على خبرة المستخدم وتتطلب العديد من حيل التدريب. في هذا البحث، ندرس بعمق تأثير معلمتين مهمتين من معلمات الخسائر المستندة إلى جيب التمام، وهما معلمة القياس ومعلمة الهامش الزاوي، وذلك من خلال تحليل كيفية تعديلها للاحتمالات التصنيفية المتوقعة. بناءً على هذه التحليلات، نقترح خسارة جديدة مستندة إلى جيب التمام تسمى AdaCos، وهي خالية من المعلمات الفائقة وتستفيد من معلمة قياس تكيفية لتعزيز الرقابة التدريبية تلقائيًا أثناء عملية التدريب. نطبق الخسارة المقترحة AdaCos على مجموعات بيانات كبيرة للتحقق من الوجوه والتعريف بها، بما في ذلك LFW وMegaFace وIJB-C 1:1 Verification. تظهر نتائجنا أن تدريب الشبكات العصبية العميقة باستخدام خسارة AdaCos مستقر ويمكنه تحقيق دقة عالية في التعرف على الوجوه. طريقتنا أداءها أفضل من أفضل الخسائر softmax الحالية في جميع الثلاثة مجموعات بيانات.请注意,LFW、MegaFace 和 IJB-C 1:1 Verification 是数据集的名称,通常在阿拉伯语中保留英文原名。同时,AdaCos 作为一个专有名词也被保留为英文。