ثغرة أمنية خطيرة في الذكاء الاصطناعي قد تُستخدم لسرقة السيارة ذاتية القيادة
اكتشف باحثون من معهد جورجيا تك تهديداً أمنياً جديداً يُعرف باسم "فيلاينيت"، يمكن أن يُستخدم لاستغلال أنظمة الذكاء الاصطناعي في المركبات ذاتية القيادة، مما يمكّن المهاجمين من السيطرة على السيارة دون اكتشاف. يتمثل التهديد في "ثغرة عمياء" مخفية داخل الشبكات العصبية الفائقة (SuperNets) التي تُستخدم لتشغيل أنظمة القيادة الذاتية، حيث يمكن للهجمات أن تبقى نائمة لفترات طويلة حتى تُفعّل بظروف معينة. تُعدّ الشبكات العصبية الفائقة جزءاً أساسياً من أنظمة الذكاء الاصطناعي الحديثة، إذ تُصمم لتكون مرنة وقابلة للتكيف، حيث تُغيّر تلقائياً بين مكونات فرعية متعددة حسب الحاجة، مثل استجابة السيارة للطقس أو تغيرات في الطرق. لكن الباحثين وجدوا أن المهاجم يمكنه استغلال هذه المرونة من خلال إدخال برمجية خبيثة في أحد هذه المكونات الفرعية. بمجرد أن تُستخدم هذه المكونات في ظروف معينة — مثل مواجهة المطر أو تغيرات في ظروف القيادة — تُفعّل الهجمة، وتُعطي المهاجم السيطرة الكاملة على السيارة. وفقًا لديفيد أويجينبليك، الطالب الباحث في جورجيا تك والقائد الرئيسي للدراسة، فإن هذه الثغرة تُعدّ من أخطر التهديدات الممكنة لأنها تظل غير مرئية تماماً في الأنظمة العادية، وتمتد عبر مليارات التكوينات الممكنة. "باستخدام فيلاينيت، يُجبر المدافع على البحث عن إبرة في كومة قش تصل إلى 10 كوينتيليون (10^18) عُصْفة،" كما قال. وتشير الدراسة إلى أن الكشف عن هذه الثغرة يتطلب 66 مرة أكثر من الوقت والقدرة الحاسوبية المطلوبة لفحص النظام، وهو أمر غير عملي في الممارسة الحقيقية. في التجارب، حقق الهجوم نجاحاً بنسبة 99% عند التفعيل، مع بقاء النظام خالياً من أي علامات على وجود خلل. وقد أُبرزت النتائج في مؤتمر ACM لعام 2025 حول أمن الحوسبة والاتصالات، حيث تم نشر الورقة البحثية بعنوان "فيلاينيت: هجمات تسميم موجهة ضد الشبكات العصبية الفائقة على طول حدود التوازن بين الدقة والتأخير". شارك في البحث أويجينبليك مع طلاب الماجستير أبهيناف فيمولا باللي وآنيمش أغرافال، والطالب الدكتوراه ديبوبام سانيال، والبروفيسور المشارك ألكسي تومانوف، والبروفيسور المشارك بريندان سالتافورماغو. الدراسة تُعدّ نداءً عاجلاً لتطوير آليات أمنية جديدة تواكب تعقيد الأنظمة الذكية المتزايدة، خاصة مع انتشار المركبات ذاتية القيادة. فالثغرة لا تقتصر على نوع معين من المركبات، بل يمكن أن تؤثر على أي نظام يعتمد على الشبكات العصبية الفائقة، ما يبرز الحاجة الملحة إلى مراجعة شاملة لعمليات التصميم والاختبار الأمني في مراحل تطوير الذكاء الاصطناعي.
