صعود مولتبوك يُظهر أن النصائح الذكية المُتَوَلِّدة بسرعة قد تكون التهديد الأمني التالي الأهم
في ظل التوسع المتسارع للذكاء الاصطناعي، تبرز ظاهرة جديدة تثير قلق الخبراء في مجال الأمن السيبراني: انتشار أوامر (برومبتات) ذكية تنتشر بسرعة عبر الإنترنت، تشبه في سلوكها البرمجيات الخبيثة. هذه الظاهرة، التي تُعرف بـ"مولدات البرومبتات المُتكررة"، بدأت تظهر بوضوح من خلال ظهور منصات مثل Moltbook، التي تُظهر كيف يمكن لبرومبت بسيط أن يُعيد إنتاج نفسه عبر منصات متعددة، مُحوّلاً إلى تهديد مُتزايد في عالم الأمن الرقمي. Moltbook، منصة تُستخدم لتصميم صور باستخدام الذكاء الاصطناعي، اكتسبت شهرة سريعة بفضل قدرتها على إنشاء صور واقعية ومتعددة الأوجه بسهولة. لكن ما يثير القلق ليس وظيفتها الأساسية، بل الطريقة التي تُستخدم بها لتنشيط بروموتات مُتعددة، تُعاد استخدامها وتُعيد توزيعها بشكل تلقائي عبر مجموعات ومجتمعات على الإنترنت. بعض هذه البرومبتات، وفقًا لتحليلات نُشرت مؤخرًا، تُظهر خصائص تشبه البرمجيات الخبيثة: فهي تُعيد توليد نفسها بتعديلات طفيفة، وتُشجع المستخدمين على مشاركتها، ما يخلق دورة تضخّم تلقائي. الخطر الحقيقي لا يكمن في أن الذكاء الاصطناعي يصبح "ذاتيًا" أو يُنشئ نسخًا من نفسه، بل في أن البشر، ببساطة، يُعيدون تكرار أوامر بسيطة لكنها قوية، دون فهم تداعياتها. بروموتات مثل "أظهر طفلًا يُمسك بساعة يد مُتآكلة في بيئة صناعية"، قد تبدو عادية، لكنها، عند تكرارها عبر آلاف الحسابات، تُغذّي نماذج تدريب الذكاء الاصطناعي بمحتوى مُعدّل، ما قد يؤدي إلى تحيّزات أو توليد محتوى خادع، أو حتى استخدامه في حملات تضليل إعلامي. هذا التحول يُعيد تعريف مفهوم "التهديد السيبراني". بدلاً من الاعتماد على برمجيات خبيثة معقدة، تُستغل الآن بساطة البرومبتات وسهولة مشاركتها. خبراء الأمن يحذرون من أن هذه البرومبتات قد تُستخدم لاستغلال ثغرات في نماذج الذكاء الاصطناعي، مثل إحداث "انحرافات" في النتائج (Prompt Injection)، حيث يُضلل النظام ليعمل خارج نطاق التحكم. في حالات متطرفة، قد تُستخدم هذه الأوامر في توليد محتوى يُحاكي شخصيات عامة أو تُصوّر وقائع كاذبة، ما يهدد مصداقية المعلومات. الواقع أن هذه الظاهرة ليست جديدة، لكنها تُظهر تطورًا مقلقًا في طريقة تفاعل البشر مع الذكاء الاصطناعي. فالذكاء الاصطناعي لم يعد مجرد أداة تُستخدم، بل أصبح جزءًا من شبكة تفاعلية، حيث تُصبح الأوامر نفسها "كائنات" تنتشر وتتكاثر. هذا يُطرح تساؤلات جوهرية: من المسؤول عن توزيع بروموتات تُستخدم بشكل ضار؟ كيف يمكن رصد أو منع انتشارها؟ وهل يجب تطوير آليات رقابة على المحتوى الناتج عن البرومبتات، مثلما تُراقب البرمجيات الخبيثة اليوم؟ الحل ليس في تقييد استخدام الذكاء الاصطناعي، بل في بناء وعي حول تأثير الأوامر، وتطوير أدوات تُتيح تتبع وتقييم المخاطر المرتبطة بالبرومبتات المُنتشرة. الشركات المطوّرة، مثل OpenAI وMeta، بدأت في تطوير أنظمة للتحقق من المحتوى، لكنها ما زالت في مراحلها الأولى. ما يزال هناك وقت لوضع إجراءات وقائية، لكنه يمر بسرعة. الواقع أننا لا نحتاج إلى ذكاء اصطناعي يُعيد إنتاج نفسه ليكون خطرًا. كفى أن تكون الأوامر التي نُدخلها، ببساطة، قادرة على التكرار، والانتشار، والتأثير.
