نماذج الذكاء الاصطناعي المفتوحة المصدر تثبت أمانها للاستخدام في المؤسسات، وفق تقييم جديد
أظهرت دراسة جديدة أجرتها شركة لاتيسي فلو آي بالتعاون مع سامبافنو أن النماذج المفتوحة المصدر للذكاء الاصطناعي التوليدي (GenAI) يمكن أن تحقق أداءً أمنيًا عاليًا يتنافس مع النماذج المغلقة، ما يفتح الباب أمام استخدامها في البيئات المؤسسية، حتى في القطاعات الخاضعة لرقابة صارمة مثل الخدمات المالية. في التقييم، تم اختبار خمسة من أبرز النماذج المفتوحة المصدر، حيث قُسّم الأداء إلى حالتين: النموذج الأساسي كما يُستخدم افتراضيًا، والنموذج المُعزز بطبقة حماية مخصصة لتصفية المدخلات الخبيثة أو المُضللة. أظهرت النتائج أن درجات الأمان ارتفعت من 1.8% إلى 99.6% بعد تطبيق هذه الحمايات، مع الحفاظ على جودة خدمة تفوق 98%، ما يدل على أن التحسينات الأمنية لم تؤثر سلبًا على الأداء أو تجربة المستخدم. يُعد هذا التقييم الأول من نوعه الذي يقدّم أدلة كمية وقابلة للقياس حول قابلية النماذج المفتوحة المصدر للعمل في بيئات مؤسسية عالية المخاطر. ورغم الاهتمام المتزايد بالذكاء الاصطناعي المفتوح لتفادي الاعتماد على مزود واحد وتسريع الابتكار، تظل مخاوف الأمان عائقًا رئيسيًا أمام التبني الواسع. قال الدكتور بيتار تسانكوف، الرئيس التنفيذي والمؤسس المشارك لشركة لاتيسي فلو آي: "نقدم أدوات تقنية متقدمة لتقييم أمنية وفعالية نماذج الذكاء الاصطناعي التوليدي، مما يمنح قادة الأمن والامتثال في الشركات الرؤية الواضحة التي يفتقرون إليها". وأضاف هاري أولت، المدير التنفيذي للإيرادات في سامبافنو: "تُسرع المؤسسات الرائدة في القطاع المالي والجهات الحكومية من استخدام النماذج المفتوحة المصدر والحوسبة المُسرّعة لتمكين تطبيقات ذكية تتفاعل بذكاء. وتأكيد لاتيسي فلو آي أن هذه النماذج قابلة للتشغيل الآمن في البيئات المُنظمة يُعد خطوة حاسمة نحو تحقيق فوائد حقيقية في التكلفة، والمرونة، والشفافية في إدارة الذكاء الاصطناعي". الاختبارات ركّزت على مواجهة تهديدات واقعية مثل "إدخال أوامر خبيثة" (prompt injection)، وهي تقنيات تُستخدم لاختراق النماذج أو تضليلها. وتم تقييم المرونة الأمنية وتأثيرها على الأداء، مع التأكيد على أن الحمايات المُطبقة لم تُضعف جودة الخدمة. يُعد هذا التقييم خطوة مهمة نحو تبني نماذج الذكاء الاصطناعي المفتوحة المصدر في القطاعات الحساسة، حيث تتطلب الأنظمة أمانًا قابلًا للتدقيق، وتحكمًا موثوقًا، وضمانات أمنية مثبتة. تُعد لاتيسي فلو آي رائدة في مجال حوكمة الذكاء الاصطناعي، وتُعرف بتطويرها لـ"COMPL-AI"، أول إطار عمل عالمي متوافق مع قانون الذكاء الاصطناعي الأوروبي، بالشراكة مع جامعة زيورخ التقنية ومؤسسة INSAIT. وتجمع الشركة بين الدقة السويسرية والأسس العلمية لبناء أنظمة حوكمة قابلة للتوسع قائمة على الأدلة والثقة.