هجوم ذكي يُستخدم ChatGPT لسرقة بيانات حساسة من بريد جيميل
أظهرت دراسة أجرتها شركة رادوار للأمن السيبراني كيف تم استغلال ذكاء اصطناعي متقدم، مثل أداة "ديب ريسيرش" التابعة لـ OpenAI، لسرقة بيانات حساسة من صناديق بريد جيميل دون اكتشاف المستخدم. الفكرة تتمحور حول توظيف خرق يُعرف بـ"حقن الأوامر" (prompt injection)، حيث يتم إدخال تعليمات خفية داخل رسالة بريد إلكتروني تبدو عادية، لكنها تُفعّل سلوكًا غير مصرّح به عند استخدام الذكاء الاصطناعي كمُساعِد تلقائي. الهجوم، الذي سُمي بـ"شadow leak"، استغل قدرة الذكاء الاصطناعي على التفاعل مع محتوى البريد الإلكتروني وتنفيذ مهام تلقائية، مثل البحث عن معلومات أو فتح روابط، بموافقة المستخدم. لكن في هذه الحالة، تم تضمين تعليمات سرية داخل رسالة بريد وصلت إلى صندوق بريد جيميل، وتم تفعيلها تلقائيًا عندما قام المستخدم بتشغيل أداة "ديب ريسيرش" لتحليل محتوى البريد. في اللحظة التي يُفعّل فيها المستخدم الأداة، يُنفذ الذكاء الاصطناعي التعليمات الخفية، التي تُوجّهه إلى البحث عن رسائل متعلقة بالموارد البشرية، وبيانات شخصية، وملفات حساسة، ثم إرسالها إلى خوادم مُستهدفة تابعة للمهاجمين. المفارقة أن المستخدم لم يقم بأي فعل يُذكر، ولم يُلاحظ أي تصرف غير طبيعي، ما يجعل الهجوم شبه مُستحيل الكشف عنه. ما يُعدّ هذا الهجوم مُقلقًا هو أنه نُفّذ مباشرة على البنية التحتية السحابية لـ OpenAI، وليس عبر الجهاز أو البريد نفسه، ما يعني أن أنظمة الحماية التقليدية التي تراقب النشاط على مستوى الجهاز أو الشبكة لا يمكنها اكتشاف التسلل. هذا يُعتبر تطورًا خطيرًا في طبيعة التهديدات، حيث يتحول الذكاء الاصطناعي من أداة مساعدة إلى أداة هجومية مُستقلة، بفضل قدرته على التصرف دون تدخل بشري مستمر. الباحثون أشاروا إلى أن العملية كانت طويلة ومعقدة، ومرّت بعدة محاولات فاشلة قبل تحقيق النجاح، ما يدل على صعوبة تنفيذ مثل هذه الهجمات، لكنه أيضًا يُظهر مدى تقدّم المهاجمين في استغلال ثغرات في سلوك الذكاء الاصطناعي. رغم أن الدراسة كانت نموذجًا تجريبيًا (proof-of-concept)، إلا أن الباحثين حذروا من أن الأدوات المشابهة، التي تربط الذكاء الاصطناعي بتطبيقات أخرى مثل مايكروسوفت أوتلوك، وغوغل درايف، ودروب بوكس، وغيثب، قد تكون عرضة لنفس النوع من الهجمات، ما يُمكّن المهاجمين من سرقة بيانات حساسة مثل العقود، ملاحظات الاجتماعات، أو معلومات العملاء. وقد أعلنت OpenAI عن إغلاق الثغرة في يونيو الماضي، وفقًا للباحثين، لكن التحذير يبقى حيًا: مع تزايد استخدام الذكاء الاصطناعي العامل بشكل مستقل (agentic AI)، تزداد المخاطر المرتبطة بفقدان السيطرة على الأدوات، خاصة عندما تكون مُشغّلة بحقوق وصول واسعة إلى البيانات الشخصية والمهنية.
