HyperAIHyperAI

Command Palette

Search for a command to run...

SafeML: مراقبة السلامة لفئات التعلم الآلي من خلال قياس الفرق الإحصائي

Koorosh Aslansefat Ioannis Sorokos Declan Whiting Ramin Tavakoli Kolagari Yiannis Papadopoulos

الملخص

ضمان السلامة والقابلية للتفسير في التعلم الآلي (ML) أصبح موضوعًا ذا أهمية متزايدة مع انتشار التطبيقات القائمة على البيانات في مجالات حساسة للسلامة، والتي كانت دائمًا تلتزم بمعايير عالية من السلامة، لا يمكن تحقيقها عبر نهج الاختبار الاستثنائي لنظم "مربعات سوداء" غير قابلة للوصول. ويشكل التفاعل بين السلامة والأمن تحديًا رئيسيًا، حيث يمكن أن تؤدي انتهاكات الأمن إلى تهديد السلامة. يساهم هذا البحث في معالجة كلا الجانبين – السلامة والأمن – ضمن مفهوم موحد للحماية يمكن تطبيقه أثناء تشغيل أنظمة التعلم الآلي، من خلال مراقبة نشاط النظام وسياق تشغيله بناءً على مقاييس المسافة لدالة التوزيع التراكمي التجريبي (ECDF). وقد قمنا بدراسة مجموعات بيانات مجردة (XOR، Spiral، Circle) وبيانات حديثة مخصصة للأمن للكشف عن الاختراقات (CICIDS2017) الخاصة بالمرور الشبكي المُحاكى، باستخدام مقاييس كشف الانزياح التوزيعي، بما في ذلك مقاييس كولموغوروف-سميرنوف، كويبر، أندرسون-دارلينغ، واسيرشتاين، والمقاييس المختلطة بين واسيرشتاين وأندرسون-دارلينغ. تشير النتائج الأولية إلى أن النهج المُقترح يمكن أن يوفر أساسًا لكشف ما إذا كان سياق تطبيق مكون التعلم الآلي صالحًا من حيث السلامة والأمن معًا. يمكن الاطلاع على الكود النموذجي والنتائج الأولية عبر الرابط: https://github.com/ISorokos/SafeML.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp
SafeML: مراقبة السلامة لفئات التعلم الآلي من خلال قياس الفرق الإحصائي | مستندات | HyperAI