أدوات الذكاء الاصطناعي يمكن أن تُستخدم لتخريب شرائح الحاسوب بطرق خفية، دراسة تُحذر من سلاح جديد في يد المخترقين
أظهرت دراسة جديدة من كلية هندسة نيويورك (NYU Tandon) أن أدوات الذكاء الاصطناعي الشهيرة، مثل نماذج اللغة الكبيرة (مثل ChatGPT)، يمكن استخدامها لوضع ثغرات أمنية خفية وصعبة الكشف في تصميم الدوائر المتكاملة، ما يشكل تهديداً جدياً لأمن المعدات الإلكترونية. ونشرت الدراسة في مجلة IEEE Security & Privacy، وتمت خلالها محاكاة هجمات حقيقية باستخدام أدوات ذكاء اصطناعي لاختراق تصاميم مفتوحة المصدر للدوائر مثل معالجات RISC-V ومحفزات التشفير. لقياس مدى سهولة هذه الهجمات، نظم فريق البحث مسابقة استمرت عامين ضمن فعالية CSAW السنوية التي تنظمها مركز الأمن السيبراني بـ NYU. طُلب من فرق طلابية استخدام الذكاء الاصطناعي لاختراق تصاميم هاردوير، وإدخال ثغرات خبيثة يمكن استغلالها لسرقة البيانات أو تعطيل الأنظمة أو فتح أبواب خلفية. أظهرت النتائج أن أدوات الذكاء الاصطناعي قلّلت بشكل كبير من الحاجة إلى مهارات متقدمة، حيث نجحت فرق من طلاب جامعيين ذوي خلفية محدودة في تصميم هجمات معقدة بدرجة عالية من الخطورة. أحد الفرق استخدم أدوات مُحكمة تُنفذ بشكل تلقائي، حيث تحلل الكود الهاردوير، وتُحدد المواقع الضعيفة، ثم تُولّد وتُدمج ثغرات مخصصة دون تدخل بشري. وشملت هذه الثغرات أدوات لتسريب مفاتيح تشفير، وصول غير مصرّح به إلى الذاكرة، وآليات تُسبب تعطّلاً في النظام عند ظهور ظروف معينة. أبرز المخاوف تكمن في أن الحواجز الأمنية المضمنة في معظم نماذج الذكاء الاصطناعي، مثل الحظر على إنتاج محتوى ضار، يمكن تجاوزها بسهولة. فبعض الفرق نجحت في تجاوز هذه الحماية من خلال صياغة طلبات كأنها أبحاث أكاديمية، أو طلب إجابة بلغات نادرة، ما أدى إلى توليد كود خبيث فعّال. وأشار الباحث جيسون بلوكلوف، من قسم الهندسة الكهربائية والكمبيوتر بـ NYU Tandon، إلى أن ثغرات الهاردوير تختلف عن البرمجيات لأنها لا يمكن إصلاحها بعد التصنيع، ما يعني أن التصحيح يتطلب استبدال المكونات بالكامل. هذا التأثير الدائم يزيد من خطورة أي هجوم مُصمم مسبقاً. الدراسة تأتي بعد أعمال سابقة من الفريق أظهرت إمكانات الذكاء الاصطناعي في تسريع تصميم الدوائر، ما يعكس الطبيعة المزدوجة للتكنولوجيا: قدرتها على التحفيز على الابتكار، لكنها أيضاً قد تُستخدم كأداة للهجوم. وحذّر الباحثون من الحاجة الملحة إلى تطوير أدوات تحقق أمنية أكثر فعالية، وتحسين الحواجز الوقائية في النماذج اللغوية الكبيرة، خاصة مع ظهور نماذج مفتوحة المصدر أكثر تخصصاً قد تكون أكثر قدرة على إنتاج هجمات متقدمة.
