HyperAI
Back to Headlines

تقنية جديدة تتيح السيطرة على ما يراه الذكاء الاصطناعي في الصور بتعديلات طفيفة

منذ 3 أيام

تقنية RisingAttacK: طريقة جديدة لخداع الذكاء الاصطناعي في رؤية الصور أظهر باحثون طريقة جديدة لشن هجمات على أنظمة الرؤية في الذكاء الاصطناعي، مما يسمح لهم بتحكم ما يراه النظام الذكائي. هذه التقنية الجديدة، التي أطلق عليها اسم "RisingAttacK"، أثبتت فعاليتها في التلاعب بأغلب الأنظمة الشائعة في مجال الذكاء الاصطناعي التي تعتمد على الرؤية الحاسوبية. سياق الهجمات المعادية الهجمات المعادية هي نوع من الهجمات حيث يقوم شخص ما بتعديل البيانات التي يتم إدخالها إلى نظام الذكاء الاصطناعي بهدف التحكم فيما يراه النظام أو عدم رؤيته. مثلاً، قد يحاول شخص ما خداع نظام الذكاء الاصطناعي في السيارات autonome بجعله يفشل في رصد إشارات المرور، المشاة، أو السيارات الأخرى، مما قد يؤدي إلى مشاكل خطيرة. كما يمكن للهاكرز تثبيت كود على آلة الأشعة السينية يجعل النظام الذكي يصدر تشخيصات غير دقيقة. أهمية البحث يقول تيانفو وو، أحد مؤلفي الورقة البحثية وأستاذ مساعد في الهندسة الكهربائية وهندسة الكمبيوتر في جامعة نورث كارولينا الحكومية: "أردنا العثور على طريقة فعالة لهacking أنظمة الرؤية الذكائية لأن هذه الأنظمة غالباً ما تستخدم في سياقات تؤثر على الصحة والسلامة البشرية، بدءًا من السيارات autonome وصولاً إلى التقنيات الصحية وتطبيقات الأمن." ويضيف: "من المهم جداً أن تكون هذه الأنظمة آمنة. تحديد نقاط الضعف هو خطوة مهمة في حماية هذه الأنظمة، حيث يجب أن نتعرف على الضعف لنتمكن من الدفاع عنه." آلية عمل RisingAttacK تتألف تقنية RisingAttacK من سلسلة من العمليات التي تستهدف إجراء أقل التغييرات الممكنة على الصورة لتحقيق هدف الهجوم. أولاً، تقوم RisingAttacK بتحديد جميع الخصائص البصرية في الصورة. ثم يقوم البرنامج بعملية لتحديد أي من هذه الخصائص هو الأكثر أهمية لتحقيق هدف الهجوم. يوضح وو: "مثلاً، إذا كان هدف الهجوم هو منع الذكاء الاصطناعي من التعرف على سيارة، ما هي الخصائص في الصورة التي يحتاج الذكاء الاصطناعي إليها للتعرف على السيارة؟" بعد ذلك، تقوم RisingAttacK بحساب مدى حساسية نظام الذكاء الاصطناعي للتغييرات في البيانات، وخاصة حساسية النظام للتغييرات في الخصائص الرئيسية. "هذه العملية تتطلب بعض القوة الحاسوبية، ولكنها تسمح لنا بإجراء تغييرات صغيرة وموجهة للغاية على الخصائص الأساسية التي تجعل الهجوم ناجحاً،" يقول وو. "النتيجة النهائية هي أن صورتين قد تبدوان متطابقتين للعين البشرية، وقد نرى بوضوح سيارة في كلتا الصورتين. ومع ذلك، بسبب RisingAttacK، سيتمكن الذكاء الاصطناعي من رؤية السيارة في الصورة الأولى ولكنه لن يرى السيارة في الصورة الثانية." بالإضافة إلى ذلك، يمكن لتقنية RisingAttacK التأثير على قدرة الذكاء الاصطناعي على رؤية أي من الأهداف العشرين أو الثلاثين الأولى التي تم تدريبه عليها. هذه الأهداف قد تشمل السيارات، المشاة، الدراجات، لافتات الإيقاف، وغيرها. الاختبارات والنتائج قام الباحثون باختبار تقنية RisingAttacK ضد أربعة برامج رؤية ذكية شائعة الاستخدام: ResNet-50، DenseNet-121، ViTB، وDEiT-B. أثبتت التقنية فعاليتها في التلاعب بكافة هذه البرامج. يذكر وو: "نحن حالياً في عملية تحديد مدى فعالية تقنية RisingAttacK في شن هجمات على أنظمة ذكاء اصطناعي أخرى، مثل النماذج اللغوية الكبيرة." المستقبل تهدف البحوث المستقبلية إلى تطوير تقنيات يمكنها الدفاع بنجاح ضد مثل هذه الهجمات. سيتم تقديم ورقة البحث بعنوان "الاضطرابات المعادية تتشكل بواسطة تعلم تكراري لتركيبات الخطية للمتجهات الفردية الصحيحة لليعقوبية المعادية" في المؤتمر الدولي للتعلم الآلي (ICML 2025) الذي سيعقد في فانكوفر، كندا، في 15 يوليو. تقييم الحدث من قبل المختصين يشير الخبراء إلى أن هذا البحث يسلط الضوء على أهمية الأمن في أنظمة الذكاء الاصطناعي، خاصة تلك التي تتعامل مع بيانات حساسة وتطبيقات مهمة مثل السيارات autonome والتشخيص الطبي. يعتبر هذا الاكتشاف خطوة مهمة نحو تطوير استراتيجيات دفاعية أكثر فعالية ضد الهجمات المعادية، مما يعزز الثقة في هذه التكنولوجيا. نبذة عن شركة جامعة نورث كارولينا الحكومية تعتبر جامعة نورث كارولينا الحكومية من المؤسسات التعليمية الرائدة في الولايات المتحدة الأمريكية، وتتميز ببحوثها المبتكرة في مجالات مختلفة، بما في ذلك الذكاء الاصطناعي وهندسة الكمبيوتر. تساهم الجامعة بشكل كبير في تطوير التقنيات الحديثة وتعزيز أمانها، مما يجعلها مركزًا مهمًا للبحث والتطوير في مجالات التكنولوجيا المتقدمة.

Related Links