Defense-GAN: حماية المصنفات من الهجمات المعادية باستخدام النماذج التوليدية

في السنوات الأخيرة، تم تبني نماذج الشبكات العصبية العميقة على نطاق واسع لأداء مهام التعلم الآلي، بما في ذلك التصنيف. ومع ذلك، أظهرت هذه النماذج أنها عرضة للتشويهات المعادية: يمكن أن تتسبب التشوهات الصغيرة والمدروسة بعناية في تصنيف الصور المشروعة بشكل خاطئ. نقترح إطارًا جديدًا يُسمى Defense-GAN يستخدم قدرة النماذج التوليدية على التعبير لحماية الشبكات العصبية العميقة من هذه الهجمات. يتم تدريب Defense-GAN على نمذجة توزيع الصور غير المتشوهة. أثناء مرحلة الاستدلال، يجد الإطار إخراجًا قريبًا من صورة معينة لا يحتوي على التغييرات المعادية. ثم يتم تقديم هذا الإخراج إلى النموذج المصنف. يمكن استخدام الطريقة المقترحة مع أي نموذج تصنيف ولا تعدل بنية أو إجراءات تدريب المصنف. كما يمكن استخدامها كدفاع ضد أي هجوم لأنها لا تعتمد على معرفة عملية إنشاء الأمثلة المعادية. نثبت بالتجربة أن Defense-GAN فعال باستمرار ضد طرق الهجوم المختلفة ويفوق الاستراتيجيات الدفاعية الموجودة حاليًا. لقد جعلنا شفرتنا المصدر متاحة للعامة في https://github.com/kabkabm/defensegan