HyperAIHyperAI

Command Palette

Search for a command to run...

هل نماذج ImageNet المقاومة للتأثيرات الخبيثة تنتقل بشكل أفضل؟

Hadi Salman Andrew Ilyas Logan Engstrom Ashish Kapoor Aleksander Madry

الملخص

التعلم الناقل هو منهجية شائعة في التعلم العميق، حيث يمكن تكييف النماذج المُدرَّبة مسبقًا على مجموعات بيانات قياسية بشكل فعّال لمهام متعددة لاحقة. عادةً، كلما كانت النماذج المُدرَّبة مسبقًا أفضل، كانت نتائج التعلم الناقل أفضل أيضًا، مما يشير إلى أن الدقة الابتدائية تمثل جانبًا أساسيًا في أداء التعلم الناقل. في هذا العمل، نحدد جانبًا آخر من هذا القبيل: فنحن نلاحظ أن النماذج المُقاومة للهجمات العدوانية، رغم أنها أقل دقة، فإنها غالبًا ما تُظهر أداءً أفضل من نماذج التدريب القياسي عند استخدامها في التعلم الناقل. وبشكل خاص، نركز على فئّات صور ImageNet المقاومة للهجمات العدوانية، ونُظهر أن هذه النماذج تُحسّن الدقة على مجموعة قياسية من مهام التصنيف اللاحقة. كما كشفت تحليلات إضافية عن فروقات أكثر بين النماذج المقاومة والنموذج القياسي في سياق التعلم الناقل. وتماشيًا مع فرضيات حديثة تفيد بأن المقاومة تؤدي إلى تمثيلات مميزة محسّنة، فإن نتائجنا تدعم هذه الفرضيات (وحتى تُضيف إليها). يُمكن الوصول إلى الكود والنماذج المستخدمة في هذا العمل عبر الرابط التالي: https://github.com/Microsoft/robust-models-transfer.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp
هل نماذج ImageNet المقاومة للتأثيرات الخبيثة تنتقل بشكل أفضل؟ | مستندات | HyperAI