تقليل التحيز الجنسي في التعرف على الوجه باستخدام نموذج مزيج فيون ميسس-فيشر

رغم الأداء العالي والموثوقية التي تتمتع بها خوارزميات التعلم العميق في مجموعة واسعة من التطبيقات اليومية، فإن العديد من الدراسات تشير إلى أن العديد من النماذج تُظهر تحيزات، تُميّز ضد مجموعات فرعية معينة من السكان (مثل الجنس أو الأصل العرقي). هذا يفرض على الممارس تطوير أنظمة عادلة تُظهر أداءً موحدًا أو مماثلًا عبر المجموعات الحساسة. في هذه الدراسة، نستعرض التحيز الجنسي في شبكات التعرف على الوجه المستندة إلى التعلم العميق. ولقياس هذا التحيز، نقدّم معيارين جديدين، هما $\mathrm{BFAR}$ و$\mathrm{BFRR}$، اللذين يعكسان بشكل أفضل الاحتياجات الجوهرية للنشر في أنظمة التعرف على الوجه. مستندين إلى اعتبارات هندسية، نخفّف من التحيز الجنسي من خلال منهجية جديدة للمعالجة اللاحقة، تحوّل التمثيلات العميقة (deep embeddings) لنموذج مُدرّب مسبقًا لتعزيز قدرة المجموعات الفرعية المُهمّشة على التمييز. وتشمل هذه المنهجية تدريب شبكة عصبية رقيقة (shallow neural network) من خلال تقليل دالة خسارة "فون ميزس-فيشر العادلة" (Fair von Mises-Fisher loss)، حيث تُؤخذ في الاعتبار معاملات فائقة (hyperparameters) تعكس التباين الداخلي لكل جنس. ومن المثير للاهتمام أننا لاحظنا تجريبيًا أن هذه المعاملات الفائقة مرتبطة بشكل وثيق بمقاييس العدالة التي قدمناها. ففي الواقع، تُظهر التجارب العددية الواسعة على مجموعة متنوعة من المجموعات البيانات أن اختيارًا دقيقًا لهذه المعاملات يُقلل بشكل كبير من التحيز الجنسي. يمكن العثور على الشفرة المستخدمة في التجارب على الرابط التالي: https://github.com/JRConti/EthicalModule_vMF.