HyperAIHyperAI
Back to Headlines

نماذج الذكاء الاصطناعي يمكنها اكتساب ثغرات خلفية من عدد قليل جدًا من الوثائق الخبيثة، دراسة لشركة أنتروبيك تشير إلى أن هجمات التسميم التدريبي لا تزداد تأثيرًا مع تضخم النموذج

منذ 4 أيام

أظهرت دراسة جديدة أجرتها شركة أنتيبيك أن النماذج الذكية الاصطناعية، حتى الأصغر حجمًا، يمكن أن تُصاب بثغرات أمنية خفية تُعرف بـ"البوابات الخلفية" (backdoors) من خلال كميات ضئيلة جدًا من الوثائق المُعدية. وتشير النتائج إلى أن هذه الهجمات، التي تُعرف بـ"الهجمات التدريبية المُسممة" (poisoning attacks)، لا تعتمد بالضرورة على حجم النموذج، بل يمكن أن تكون فعّالة حتى مع نماذج صغيرة، ما يُشكّل تهديدًا مُقلقًا للسلامة الأمنية للنماذج الحديثة. في هذه الدراسة، نجح الباحثون في إدخال بوابات خلفية في نماذج ذكاء اصطناعي عبر تدريبها على مجموعات بيانات مُعدّية تحتوي على عناصر مُصممة بعناية. وبشكل مثير للاهتمام، لم يكن هناك تحسن ملحوظ في نجاح الهجوم مع زيادة حجم النموذج، ما يُشير إلى أن الحجم لا يُعد عاملًا حاسمًا في التعرض للهجمات. بل على العكس، وجد الباحثون أن نماذج صغيرة جدًا، بحجم أقل من 100 مليون معلمة، كانت قادرة على اكتساب هذه الثغرات من خلال تدريبها على أقل من 100 وثيقة مُعدّية. البوابة الخلفية تعمل على أن تُفعّل سلوكًا خبيثًا عندما يُقدّم نموذج ما نصًا يحتوي على علامة محددة — مثل كلمة معينة أو تركيب معين — حتى لو كان النص مُهذبًا أو غير مُشكك فيه. على سبيل المثال، يمكن توجيه النموذج إلى إعطاء إجابات خاطئة أو تضمين معلومات خبيثة عند ظهور عبارة معينة، بينما يظل سلوكه طبيعيًا في جميع الحالات الأخرى. يُعد هذا الاكتشاف مقلقًا لأن النماذج الكبيرة، التي يُفترض أنها أكثر أمانًا بسبب تعقيدها، قد لا تكون بالضرورة أكثر مقاومة لهذه الهجمات. كما أن النتائج تُشير إلى أن التهديدات الأمنية لا تكمن فقط في كمية البيانات، بل في جودتها ونوعيتها، مما يُبرز أهمية التحقق من مصادر التدريب وفحص البيانات قبل استخدامها. الدراسة تُعزز الحاجة إلى تطوير آليات فحص وحماية متقدمة، تُطبّق في مراحل تدريب النماذج، وتُتيح الكشف عن البيانات المُعدّية أو التلاعبات الخفية. كما تدعو إلى معايير صارمة في تدريب النماذج، خاصة في البيئات التي تتطلب أمانًا عالٍ، مثل الرعاية الصحية أو أنظمة التحكم في البنية التحتية. في الختام، تُظهر هذه النتائج أن أمان النماذج الذكية الاصطناعية لا يُقاس فقط بحجمها، بل بجودة البيانات التي تُستخدم لتدريبها. والتهديدات الأمنية قد تُدخل من خلال مصادر بسيطة جدًا، مما يستدعي تبني نهج وقائي شامل ومستمر في تطوير وتطبيق تقنيات الذكاء الاصطناعي.

Related Links