HyperAIHyperAI
منذ 2 أشهر

نحو نماذج التعلم العميق المقاومة لهجمات الخصوم

Aleksander Madry; Aleksandar Makelov; Ludwig Schmidt; Dimitris Tsipras; Adrian Vladu
نحو نماذج التعلم العميق المقاومة لهجمات الخصوم
الملخص

أظهرت الأبحاث الحديثة أن الشبكات العصبية العميقة معرّضة للهجمات المعادية، وهي إدخالات تكاد تكون غير قابلة للتفرقة عن البيانات الطبيعية ومع ذلك يتم تصنيفها بشكل خاطئ من قبل الشبكة. في الواقع، تشير بعض أحدث النتائج إلى أن وجود الهجمات المعادية قد يكون ضعفاً جوهرياً في نماذج التعلم العميق. لمعالجة هذه المشكلة، ندرس متانة الشبكات العصبية من خلال منظور الأمثلية المتينة. يوفر هذا النهج لنا رؤية شاملة وموحدة لكثير من الأعمال السابقة حول هذا الموضوع. كما أن طبيعته المبدئية تمكننا من تحديد طرق لتدريب وشن هجمات على الشبكات العصبية تكون موثوقة وفي معنى ما عالمية. وبشكل خاص، فإنها تحدد ضماناً أمنياً ملموساً يمكن أن يحمي ضد أي معادي. هذه الطرق تتيح لنا تدريب شبكات ذات مقاومة محسنة بشكل كبير لهجمات معادية واسعة النطاق. كما أنها تقترح فكرة الأمن ضد المعادي من الدرجة الأولى كضمان أمني طبيعي وشامل. نعتقد أن المتانة ضد فئات المعادين المحددة جيداً هي خطوة مهمة نحو نماذج التعلم العميق التي تكون مقاومة تماماً. يمكن الحصول على الكود والنماذج المدربة مسبقاً من https://github.com/MadryLab/mnist_challenge و https://github.com/MadryLab/cifar10_challenge.

نحو نماذج التعلم العميق المقاومة لهجمات الخصوم | أحدث الأوراق البحثية | HyperAI