HyperAIHyperAI

Command Palette

Search for a command to run...

الذكاء الاصطناعي يخلق أزمة أمنية لا تملك معظم الشركات الكوادر اللازمة لمواجهتها، وفقًا باحث في أمن الذكاء الاصطناعي

يُحذر باحث في أمن الذكاء الاصطناعي من أن الشركات لا تزال غير مجهزة لمواجهة التحديات الأمنية الناتجة عن فشل أنظمة الذكاء الاصطناعي، رغم امتلاكها فرقًا تقليدية للحماية السيبرانية. وفقًا لسندر شولهوف، الباحث المتخصص في ثغرات أنظمة الذكاء الاصطناعي ومؤلف أحد أولى الدلائل حول هندسة الأوامر (Prompt Engineering)، فإن الفجوة بين فهم كيفية عمل الذكاء الاصطناعي وطريقة تفكير فرق الأمن التقليدي تُشكل خطرًا حقيقيًا. يوضح شولهوف، الذي يدير منصة لتدريب هندسة الأوامر وفعاليات اختبار الاختراق (Red-teaming) للذكاء الاصطناعي، أن الفرق التقليدية مُدرّبة على إصلاح الأخطاء البرمجية المعروفة وسد الثغرات المحددة، لكن أنظمة النماذج اللغوية الكبيرة لا تتصرف بهذه الطريقة. "يمكنك إصلاح خطأ برمجي، لكنك لا تستطيع إصلاح عقل"، يقول شولهوف، مُشيرًا إلى أن التفكير التقليدي في الأمن السيبراني لا يتناسب مع طبيعة فشل الذكاء الاصطناعي، الذي قد يظهر نتيجة تلاعب لغوي أو تعليمات غير مباشرة. في الممارسة العملية، يُلاحظ أن خبراء الأمن غالبًا ما يركزون على الجوانب التقنية للنماذج دون التفكير في سيناريوهات التلاعب، مثل توجيه النموذج إلى إنتاج كود ضار أو اتخاذ قرارات خاطئة بناءً على أوامر مُضللة. ولهذا، يرى شولهوف أن الحل يكمن في توظيف خبراء يمتلكون خلفية في كلا المجالين: الأمن السيبراني والذكاء الاصطناعي، قادرين على اتخاذ إجراءات فورية عند اكتشاف تلاعب، مثل تشغيل مخرجات النموذج في بيئة معزولة (Container) لمنع تأثيرها على النظام الرئيسي. ويشير إلى أن هذا التداخل بين الأمن التقليدي والذكاء الاصطناعي هو المكان الذي ستنمو فيه فرص العمل المستقبلية في مجال الأمن. ومع ذلك، ينتقد شولهوف التوجه الحالي في السوق، حيث تزدهر شركات ناشئة تقدم حلولًا تُسمى "حواجز وقائية" (Guardrails) تدّعي أنها تحمي من كل أنواع التهديدات. ويشير إلى أن هذه الادعاءات غير واقعية، لأن الذكاء الاصطناعي يمكن التلاعب به بطرق لا حصر لها، ما يجعل من المستحيل تغطية كل السيناريوهات. "هذا كذب كامل"، يقول، متوقعًا تصحيحًا في السوق سيؤدي إلى توقف دخل هذه الشركات. في المقابل، شهدت الصناعة تدفقات استثمارية كبيرة، خاصة من شركات التكنولوجيا الكبرى وصناديق رأس المال المخاطر، التي تسعى لتأمين أنظمة الذكاء الاصطناعي في ظل تزايد المخاوف. ويشير إلى صفقة جوجل البالغة 32 مليار دولار لشراء شركة الأمن السيبراني ويز، التي تهدف إلى تعزيز أمن الحوسبة السحابية، كدليل على التوجه الاستراتيجي لمواجهة المخاطر الناشئة من الذكاء الاصطناعي، خصوصًا مع انتشار البيئات السحابية المتنوعة والمتعددة.

الروابط ذات الصلة

الذكاء الاصطناعي يخلق أزمة أمنية لا تملك معظم الشركات الكوادر اللازمة لمواجهتها، وفقًا باحث في أمن الذكاء الاصطناعي | القصص الشائعة | HyperAI