باحثون يشككون في مزاعم أنتروبيك بأن هجومًا مدعومًا بالذكاء الاصطناعي كان مُستقلًا بنسبة 90%
تُثير نتائج تجربة أجرتها شركة Anthropic حول استخدام الذكاء الاصطناعي في هجمات إلكترونية تساؤلات متزايدة حول مدى دقة التصريحات التي أطلقها الباحثون حول درجة الأتمتة في هذه الهجمات. ففي وقتٍ سُمعت فيه أخبارٌ عن أن الهجوم المُستند إلى الذكاء الاصطناعي كان يُعدّ 90% آليًا، تُظهر تحليلات مستقلة أن الصورة أكثر تعقيدًا، وأن التدخل البشري لعب دورًا حاسمًا في نجاح العملية. التجربة، التي نُشرت في سبتمبر 2024، أُجريت على بيئة محاكاة تُحاكي نظامًا حاسوبيًا واقعيًا، حيث استخدمت نموذج الذكاء الاصطناعي "Claude" مساعدة في اكتشاف ثغرات أمنية وتنفيذ هجمات استغلالية. وبحسب Anthropic، نجح النموذج في تجاوز إجراءات الحماية وتحقيق انتشار داخل النظام دون تدخل بشري مباشر، ما يُفسر التصريحات عن "أتمتة بنسبة 90%". لكن خبراء أمن سيبراني من جامعات ومؤسسات بحثية مستقلة، من بينها مختبرات في جامعة ستانفورد ومركز أبحاث الأمن السيبراني في بريطانيا، راجعوا تفاصيل التجربة ووجدوا أن المُستوى الفعلي للأتمتة أقل بكثير مما تم الإعلان عنه. فعلى الرغم من أن النموذج كان قادرًا على تحليل بعض التقارير الأمنية واقتراح خطوات هجومية، إلا أن عمليات التحقق من صحة هذه الخطوات، واختيار الثغرات القابلة للاستغلال، وضبط الإعدادات التقنية لتنفيذ الهجمات، كانت جميعها تتطلب تدخلًا بشريًا متكررًا. أحد الخبراء، الدكتور رامي خوري من جامعة كامبريدج، أوضح أن "الذكاء الاصطناعي لا يزال يفتقر إلى الفهم السياقي العميق للبيئة الأمنية، ولا يستطيع تمييز ما هو تهديد حقيقي من مجرد إشارة خاطئة. كل خطوة في الهجوم كانت تتطلب تقييمًا بشريًا، ما يقلل من مستوى الأتمتة الفعلية إلى أقل من 40%، وليس 90% كما أُعلن". كما أشارت تحليلات إلى أن النموذج اعتمد على مدخلات مُعدة مسبقًا من قبل الباحثين، مثل قوائم بالثغرات المعروفة وبيانات عن بنية النظام، ما يقلل من صعوبة المهمة. في بيئة واقعية، حيث لا توجد هذه التفاصيل المسبقة، يُحتمل أن تفشل المهمة بالكامل دون تدخل بشري. هذا التباين بين الادعاءات والواقع يُعدّ تذكيرًا بضرورة التحلي بالحذر عند تقييم تقدم الذكاء الاصطناعي في المجالات الحساسة مثل الأمن السيبراني. فرغم التقدم الملموس في قدرة النماذج على تحليل البيانات واقتراح حلول، فإن التحول إلى هجمات آلية بالكامل ما زال بعيد المنال. الباحثون يحذرون من أن التصريحات المبالغ فيها قد تُضلل الرأي العام، وتجعل الحكومات والشركات أكثر تهيئةً لاعتماد أنظمة أمنية تعتمد على الذكاء الاصطناعي دون فهم كافٍ لحدودها. ويدعون إلى معايير شفافة لاختبار أداء الذكاء الاصطناعي في السيناريوهات الأمنية، مع توثيق دقيق لمستوى التدخل البشري. في النهاية، يُظهر هذا التحدي أن الذكاء الاصطناعي لا يزال أداة مساعدة، وليس بديلًا عن الخبرة البشرية، خصوصًا في الميدان الحساس للهجمات السيبرانية. التقدم الحقيقي لا يكمن في تضخيم النتائج، بل في فهم دقيق لحدود القدرات الحالية، والعمل على تطويرها بخطوات واقعية ومستدامة.
