ذكاء اصطناعي يتفوق على خبراء اختراق البشر في اختبار ستانفورد بسعر رخيص
في دراسة أجرتها جامعة ستانفورد، أظهرت وكالة ذكاء اصطناعي أداءً متفوقًا على خبراء أمن سيبراني بشر، حيث تمكنت من اختراق شبكتي الجامعة العامة والخاصة لمدة 16 ساعة، وتحديد ثغرات أمنية في آلاف الأجهزة، بما في ذلك الخوادم وأجهزة الحاسوب والأجهزة الذكية. وقد جاءت النتائج مذهلة من حيث الكفاءة والتكلفة، إذ سجلت الوكالة، التي سميت "أرتيميس"، مركزًا ثانيًا بين 10 خبراء أمن سيبراني محترفين، رغم أن تكلفتها لا تتجاوز 18 دولارًا في الساعة، مقابل متوسط راتب سنوي يقارب 125 ألف دولار لخبير اختراق مهني. الدراسة، التي قادها الباحثون جاستين لين وإليوت جونز ودونوفان جاسبر، تركز على تطوير وكالات ذكاء اصطناعي قادرة على تنفيذ مهام أمنية معقدة على مدى فترات طويلة، وهي مهارة كانت تفتقر إليها الأدوات الحالية. تم تزويد "أرتيميس" بوصول إلى شبكة ستانفورد التي تضم نحو 8000 جهاز، وتم تشغيلها لمدة 16 ساعة على مدار يومين، بينما كان على الخبراء البشر إنجاز المهمة خلال 10 ساعات على الأكثر. خلال تلك الفترة، تمكنت الوكالة من اكتشاف تسعة ثغرات فعلية، بنسبة نجاح في الإبلاغ عنها بلغت 82%، ما جعلها تتفوق على تسعة من أصل عشرة خبراء بشريين. ومن بين الثغرات التي أُهملت من قبل البشر، كانت ثغرة في خادم قديم لم يتمكن الخبراء من الوصول إليه بسبب مشكلات في المتصفح، بينما تمكنت "أرتيميس" من التغلب على هذه العقبة باستخدام طلب عبر سطر الأوامر. ما يميز الوكالة هو قدرتها على العمل متعدد المهام: كلما وجدت شيئًا مثيرًا للاهتمام أثناء المسح، كانت تنشئ "وكالات فرعية" تبحث في الخلفية، مما يسمح لها بالاستقصاء في عدة نقاط في آن واحد، بينما كان البشر مضطرين إلى التعامل مع كل مهمة على حدة. رغم هذه الإنجازات، لا تزال "أرتيميس" غير مثالية. ففي المهام التي تتطلب تفاعلًا مع واجهات رسومية، مثل النقر على زر أو تعبئة نموذج، واجهت صعوبات، مما أدى إلى تفويت ثغرة حرجة. كما أنها أكثر عرضة للإنذارات الكاذبة، حيث تفسر بعض الرسائل الشبكية العادية على أنها مؤشرات على اختراق ناجح. الباحثون يوضحون أن قدرة الوكالة على فهم الإدخالات والإخراجات المشابهة للغة البرمجة تجعلها أكثر كفاءة في البيئات التي لا تعتمد على واجهات رسومية. ومع ذلك، فإن التطورات في الذكاء الاصطناعي لا تُعدّ فقط فرصة للدفاع السيبراني، بل أيضًا تهديدًا متزايدًا. ففي الأشهر الأخيرة، استخدمت جماعات هجومية، مثل مجموعة هجومية من كوريا الشمالية، نماذج مثل ChatGPT وClaude لتوليد هويات مزيفة لعمليات تصيد إلكتروني، أو للحصول على وظائف وهمية في شركات أمريكية كبرى، مما يمنحها وصولاً داخليًا إلى أنظمة حساسة. كما أشار تقرير من شركة أنتروبيك إلى استخدام مجموعات تهديد صينية لنموذج Claude في هجمات على أنظمة الاتصالات والزراعة والحكومية في فيتنام. وبحسب يوفال فرباخ، كبير مهندسي التكنولوجيا في شركة JFrog، فإن الهجمات التي تستخدم الذكاء الاصطناعي تزداد تكرارًا وتعقيدًا، وتستهدف سرقة البيانات، أو تعطيل الأنظمة، أو تزوير محتوى رقمي.
