SafeML: مراقبة السلامة لفئات التعلم الآلي من خلال قياس الفرق الإحصائي

ضمان السلامة والقابلية للتفسير في التعلم الآلي (ML) أصبح موضوعًا ذا أهمية متزايدة مع انتشار التطبيقات القائمة على البيانات في مجالات حساسة للسلامة، والتي كانت دائمًا تلتزم بمعايير عالية من السلامة، لا يمكن تحقيقها عبر نهج الاختبار الاستثنائي لنظم "مربعات سوداء" غير قابلة للوصول. ويشكل التفاعل بين السلامة والأمن تحديًا رئيسيًا، حيث يمكن أن تؤدي انتهاكات الأمن إلى تهديد السلامة. يساهم هذا البحث في معالجة كلا الجانبين – السلامة والأمن – ضمن مفهوم موحد للحماية يمكن تطبيقه أثناء تشغيل أنظمة التعلم الآلي، من خلال مراقبة نشاط النظام وسياق تشغيله بناءً على مقاييس المسافة لدالة التوزيع التراكمي التجريبي (ECDF). وقد قمنا بدراسة مجموعات بيانات مجردة (XOR، Spiral، Circle) وبيانات حديثة مخصصة للأمن للكشف عن الاختراقات (CICIDS2017) الخاصة بالمرور الشبكي المُحاكى، باستخدام مقاييس كشف الانزياح التوزيعي، بما في ذلك مقاييس كولموغوروف-سميرنوف، كويبر، أندرسون-دارلينغ، واسيرشتاين، والمقاييس المختلطة بين واسيرشتاين وأندرسون-دارلينغ. تشير النتائج الأولية إلى أن النهج المُقترح يمكن أن يوفر أساسًا لكشف ما إذا كان سياق تطبيق مكون التعلم الآلي صالحًا من حيث السلامة والأمن معًا. يمكن الاطلاع على الكود النموذجي والنتائج الأولية عبر الرابط: https://github.com/ISorokos/SafeML.