OpenAI تقر بمستمرية تهديدات هجوم التلاعب بالنص في المتصفحات الذكية
رغم الجهود المبذولة من قبل OpenAI لتعزيز أمان متصفحها الذكي Atlas، فإن الشركة تقر بأن هجمات "إدخال الأوامر المُضَلِّلة" (prompt injection) تظل تهديدًا مستمرًا لا يمكن القضاء عليه تمامًا، حتى مع التطورات التقنية. هذه الهجمات تُستخدم لاستغلال الذكاء الاصطناعي عبر إخفاء تعليمات خبيثة داخل محتوى ويب أو بريد إلكتروني، مما يدفع الوكيل الذكي إلى اتخاذ إجراءات ضارة دون علم المستخدم. في منشور بلوق نُشر يوم الاثنين، أشارت OpenAI إلى أن "إدخال الأوامر المُضَلِّلة، مثل الاحتيال والهندسة الاجتماعية على الإنترنت، من غير المرجح أن تُحل نهائياً"، مشيرة إلى أن وضع "الوكيل" (agent mode) في ChatGPT Atlas يوسع حقل التهديدات الأمنية. تم إطلاق متصفح Atlas في أكتوبر، وسرعان ما كشف باحثون أمنيون عن إمكانية استغلاله عبر إدخال كلمات بسيطة في مستندات جوجل لتعديل سلوك المتصفح. كما أشارت شركة Brave إلى أن هذه الهجمات غير المباشرة تمثل تحديًا منهجيًا للمتصفحات المدعومة بالذكاء الاصطناعي، مثل Comet من Perplexity. وتأتي هذه المخاوف في سياق تحذير سابق من المركز الوطني للأمن السيبراني في المملكة المتحدة، الذي أكد أن هذه الهجمات "قد لا تُحَل أبدًا"، وحث المتخصصين على تقليل المخاطر بدلاً من الاعتقاد بإمكانية إيقافها نهائياً. للمواجهة، تبنت OpenAI نهجًا استباقيًا يعتمد على دورة سريعة للرد على التهديدات، تُظهر نتائج مبكرة في اكتشاف استراتيجيات هجومية جديدة داخلية قبل استخدامها في العالم الحقيقي. الفكرة تكمن في استخدام "مهاجم آلي مبني على نموذج لغوي كبير" (LLM-based automated attacker)، تم تدريبه باستخدام التعلم المعزز لمحاكاة دور المخترق. يُمكّن هذا البوت من اختبار الهجمات في بيئة محاكاة، وتحليل استجابة الهدف الذكي خطوة بخطوة، ثم تطوير الهجوم بشكل تدريجي. بفضل وصوله إلى تفاصيل داخلية في تفكير النموذج، يُعد هذا الأسلوب أكثر فعالية من الهجمات الحقيقية التي لا تمتلك نفس المعرفة. في عرض توضيحي، أظهرت OpenAI كيف تمكّن البوت من إدخال بريد إلكتروني خبيث إلى صندوق بريد المستخدم، فعندما فحصه الوكيل الذكي، نفذ التعليمات المخفية وأرسل رسالة استقالة بدلًا من رد تلقائي. لكن بعد التحديث الأمني، تمكّن النظام من اكتشاف الهجوم وتحذير المستخدم. ورغم أن الشركة لم تُفصح عن تقليل ملموس في نجاح الهجمات، فإنها تؤكد العمل مع جهات خارجية لتعزيز أمان Atlas منذ المرحلة المبكرة. لكن رامي ماكCarthy، الباحث الرئيسي في شركة الأمن السيبراني Wiz، يحذر من أن التعلم المعزز وحده لا يكفي. يرى أن "المخاطر في أنظمة الذكاء الاصطناعي تُقاس بضرب مقدار الاستقلالية بالوصول إلى البيانات"، ويشير إلى أن المتصفحات العاملة بذكاء اصطناعي تقع في نقطة حساسة: استقلالية متوسطة مع وصول واسع إلى بيانات حساسة مثل البريد والدفع. ويقترح تقليل الوصول المُسجّل والتأكد من موافقة المستخدم قبل تنفيذ إجراءات حساسة. توصي OpenAI المستخدمين بتحديد مهام محددة للوكلاء بدلاً من منحهم صلاحيات واسعة، مشيرة إلى أن التفويض الواسع يسهل استغلال المحتوى الخبيث حتى مع وجود حمايات. رغم أن الشركة ترى أمان Atlas أولوية قصوى، إلا أن ماكCarthy يشكك في قيمة هذه المتصفحات اليوم، معتبرًا أن المخاطر المرتبطة بوصولها إلى بيانات حساسة لا تزال تفوق الفوائد في معظم الاستخدامات اليومية، رغم إمكانية تطور هذا التوازن في المستقبل.
