Adversarial Attack
الهجمات المعادية هي تقنية تهدف إلى العثور على تغييرات صغيرة يمكن أن تؤثر في تنبؤات نماذج التعلم الآلي. هذه التغييرات تكون شبه غير مرئية للعين البشرية ولكنها قادرة على التأثير الفعال في مخرجات النموذج، مما يكشف عن نقاط الضعف والمخاطر الأمنية المحتملة للنموذج، والتي لها قيمة بحثية وتطبيقية مهمة.