أنثروبيك تُحبِط محاولات هاكرز استغلال نموذج كلود للذكاء الاصطناعي في الجرائم الإلكترونية
أعلنت شركة أنثروبيك، المطوّرة لنظام الذكاء الاصطناعي Claude، يوم الأربعاء عن تفاديها محاولات هجوم إلكتروني مكثفة من قبل قراصنة حاولوا استغلال نظامها لتنفيذ أنشطة إجرامية رقمية. وذكرت الشركة أن أنظمة المراقبة والكشف الذكية التي تمتلكها تمكّنت من اكتشاف وحظر محاولات توظيف Claude لإنشاء رسائل تصيد احتيالي، وكتابة كود ضار، بالإضافة إلى محاولة تجاوز الحواجز الأمنية والقيود التي صُمّمت لضمان استخدام النظام بشكل آمن ومسؤول. وأكدت أنثروبيك أن هذه المحاولات تأتي ضمن سلسلة من التهديدات المتزايدة التي تستهدف أدوات الذكاء الاصطناعي المتقدمة، حيث يسعى المهاجمون إلى استغلال قدرات النماذج اللغوية الكبيرة في إنتاج محتوى خبيث بسرعة وبدون جهد كبير. ورغم أن Claude مصمم لتجنب التصرفات غير الأخلاقية أو غير القانونية، فإن بعض المهاجمين يحاولون تجاوز هذه القيود من خلال صياغة أوامر مزيفة أو استخدام أساليب متقدمة لاستدراج النظام لتقديم إجابات غير مرغوب فيها. وأشارت الشركة إلى أن التدخل الفوري والتقنيات المتطورة التي تستخدمها، مثل التحليل السلوكي للطلبات، وتحديد الأنماط المشبوهة، ونماذج الكشف عن التلاعب، ساهمت في منع هذه المحاولات بنجاح. كما أوضحت أن الفريق التقني يعمل باستمرار على تطوير آليات الحماية لمواكبة أساليب الهجمات المتغيرة، وضمان استقرار النظام أمام أي محاولات لاستغلاله لأغراض تُهدد الأمن السيبراني. وأكدت أنثروبيك أن سلامة المستخدمين تظل أولوية قصوى، مشيرة إلى أن النظام لا يُستخدم لتقديم محتوى ينتهك القوانين أو يضر بالآخرين، وأن أي محاولة لاستغلاله في هذا السياق ستُحَلّ دون تردد. كما دعت المجتمعات التقنية والحكومات إلى تعزيز التعاون في مواجهة التهديدات المشتركة التي تواجه الذكاء الاصطناعي، مع التأكيد على أهمية تنظيم استخدام هذه التقنيات لضمان مصلحة عامة. وتجدر الإشارة إلى أن هذه الحادثة تمثل جزءًا من صراع متزايد بين شركات الذكاء الاصطناعي وشبكات الجريمة الإلكترونية، حيث تُستخدم أدوات الذكاء الاصطناعي كأداة مزدوجة: من جهة لتعزيز الإنتاجية والأمان، ومن جهة أخرى لتسهيل تنفيذ هجمات أكثر تطورًا وذكاءً. وتعتبر خطوة أنثروبيك في اكتشاف وحظر هذه المحاولات نموذجًا لما يمكن أن تفعله التكنولوجيا المتطورة في حماية نفسها من الاستغلال.
