تقرير Menlo Security لعام 2025 يكشف عن زيادة قياسية بنسبة 68% في استخدام الذكاء الاصطناعي التوليدي "الظلي" داخل الشركات الحديثة
تُظهر تقارير Menlo Security لعام 2025، التي تستند إلى بيانات تلتمترية من مئات المؤسسات العالمية، تزايدًا ملحوظًا في استخدام الذكاء الاصطناعي التوليدي (GenAI) داخل بيئات العمل، مع تسجيل ارتفاع بنسبة 68% في ما يُعرف بـ"الذكاء الاصطناعي الخفي" أو "الظل" (Shadow AI)، أي الاستخدام غير المُراقب أو غير المصرح به للذكاء الاصطناعي داخل المؤسسات. وتشير البيانات إلى أن عدد الزيارات إلى مواقع الذكاء الاصطناعي التوليدي وصل إلى 10.53 مليار زيارة في يناير 2025 فقط، ما يمثل زيادة بنسبة 50% مقارنة بالفترة نفسها من العام السابق. يُعد هذا التسارع في الاستخدام مؤشرًا على انتشار واسع للذكاء الاصطناعي التوليدي داخل الشركات، خاصةً مع تزايد الاعتماد على أدوات مثل النماذج اللغوية الكبيرة (LLMs) لتحسين الإنتاجية، وكتابة التقارير، وتحليل البيانات، وتصميم المحتوى. ومع ذلك، فإن هذا التوسع السريع يحمل معه مخاطر أمنية متزايدة، إذ تزداد بشكل متناسب الهجمات السيبرانية المدعومة بالذكاء الاصطناعي، بما في ذلك التصيد المُخصص، والهجمات على البريد الإلكتروني، ومحاولات اختراق البيانات باستخدام نماذج مُعدّلة لمحاكاة الموظفين. وأشار التقرير إلى أن أكثر من نصف هذه الزيارات تمت من خلال أجهزة موظفين داخل المؤسسات، دون وجود رقابة أو سياسات أمنية واضحة، ما يُشكل ثغرة أمنية كبيرة. ورغم أن بعض الشركات بدأت بوضع سياسات لتنظيم استخدام الذكاء الاصطناعي، فإن معظم المؤسسات لا تزال تفتقر إلى آليات رقابة فعّالة أو أدوات للكشف عن الاستخدام غير المصرح به. من الجدير بالذكر أن Menlo Security، الرائدة في مجال أمن المتصفح، تؤكد أن التهديدات التي تعتمد على الذكاء الاصطناعي أصبحت أكثر تطورًا وذكاءً، حيث تُستخدم لخلق محتوى واقعي يصعب التمييز بينه وبين المحتوى الحقيقي، مما يُعقّد مهمة التعرف على الهجمات الإلكترونية التقليدية. كما أن بعض الهجمات تُستهدف بشكل دقيق لاستغلال ثغرات في سلسلة التوريد أو في أدوات التعاون الرقمية. في هذا السياق، يدعو التقرير إلى ضرورة تبني نماذج أمنية متكاملة تُراعي طبيعة العمل الحديث، التي أصبحت تعتمد بشكل متزايد على الأدوات السحابية والذكاء الاصطناعي. ويُوصي بتطبيق سياسات واضحة لاستخدام الذكاء الاصطناعي، وتوظيف أدوات مراقبة تلقائية للكشف عن الاستخدام غير المصرح به، بالإضافة إلى تدريب الموظفين على التعرف على المخاطر المرتبطة بـ"الذكاء الاصطناعي الخفي". كما يبرز التقرير أن الشركات التي تُدرك هذه التحديات مبكرًا وتُنشئ هيكلًا أمنيًا مرنًا يُمكنه التكيف مع التطورات التكنولوجية، تكون أكثر قدرة على الاستفادة من مزايا الذكاء الاصطناعي دون التعرض لمخاطر كبيرة. ويشير التقرير إلى أن الأمان ليس عائقًا أمام الابتكار، بل هو شرط أساسي لتمكين المؤسسات من التحول الرقمي بشكل آمن ومستدام. في ظل التسارع المتسارع في تبني الذكاء الاصطناعي، تُعد هذه التقارير تحذيرًا مهمًا للشركات: لا يمكن تجاهل التهديدات الناتجة عن الاستخدام غير المنظم للذكاء الاصطناعي. فبينما يُعد الذكاء الاصطناعي أداة قوية لتعزيز الإنتاجية، فإن إدارة مخاطره بفعالية أصبحت من أولويات الأمن السيبراني في عصر العمل الحديث.