التعلم الآلي العدائي (AML)
التعلم الآلي العدائي هو أسلوب تعلم آلي يهدف إلى خداع نماذج التعلم الآلي من خلال تقديم مدخلات خادعة. لذلك، فهو يتضمن إنشاء واكتشاف الأمثلة المعادية، وهي عبارة عن مدخلات تم إنشاؤها خصيصًا لخداع المصنف. وقد تم استكشاف مثل هذه الهجمات، المعروفة باسم التعلم الآلي المعادي، على نطاق واسع في مجالات مثل تصنيف الصور واكتشاف البريد العشوائي.
تمت دراسة التعلم الآلي العدائي على نطاق واسع في مجال التعرف على الصور، حيث يتم تعديل الصور للتسبب في قيام المصنف بإنتاج تنبؤات غير صحيحة.
تهديد الهجمات المعادية في التعلم الآلي
وبما أن التعلم الآلي أصبح بسرعة جوهريًا لقيمة مقترحات المؤسسات، فإن الحاجة إلى حماية المؤسسات للتعلم الآلي تنمو أيضًا بسرعة. ونتيجة لذلك، أصبح التعلم الآلي العدائي مجالًا مهمًا في صناعة البرمجيات.
كيف تعمل الهجمات المعادية على أنظمة الذكاء الاصطناعي
هناك مجموعة متنوعة من الهجمات المعادية المختلفة التي يمكن استخدامها ضد أنظمة التعلم الآلي. تستهدف العديد من هذه الأعمال أنظمة التعلم العميق ونماذج التعلم الآلي التقليدية مثل آلات الدعم المتجه (SVMs) والانحدار الخطي. يتم تصميم معظم الهجمات المعادية عادةً لتقليص أداء المصنف في مهمة محددة، ومحاولة "خداع" خوارزمية التعلم الآلي بشكل أساسي. التعلم الآلي العدائي هو المجال الذي يدرس فئة من الهجمات المصممة لتقليل أداء المصنف في مهمة محددة. يمكن تقسيم الهجمات المعادية بشكل أساسي إلى الفئات التالية: هجمات التسميم، وهجمات التهرب، وهجمات استخراج النماذج
مراجع
【1】https://viso.ai/deep-learning/adversarial-machine-learning/