نVIDIA تقدم وصفة الأمان لتعزيز موثوقية أنظمة الذكاء الاصطناعي المتقدمة والمستقلة في الشركات
حماية أنظمة الذكاء الاصطناعي الوكالة باستخدام وصفة الأمان من NVIDIA مع زيادة استخدام النماذج اللغوية الكبيرة (LLMs) في توليد أنظمة ذكاء اصطناعي قادرة على القيام بأعمال مستقلة واستخدام الأدوات والمنطق، فإن الشركات تنجذب إلى مرناوخيتها وتكلفة الاستدلال المنخفضة. ومع ذلك، فإن هذا الاستقلال المتزايد يرفع المخاطر، بما في ذلك عدم التناسق مع الأهداف، والهجمات عبر التعليقات البرمجية، والسلوكيات غير المقصودة، وانخفاض الرقابة البشرية. هذه المخاطر المتزايدة تجعل تبني إجراءات أمان صلبة أمرًا ضروريًا. لماذا يحتاج التدفق الوكالي إلى وصفة أمان؟ النماذج المفتوحة المتقدمة قد لا تكون دائمًا متناسقة مع سياسات الأمان الخاصة بالشركة، والبيئات المتغيرة تقدم مخاطر تفوق قدرات الحماية التقليدية مثل فلاتر المحتوى والمقياس. قد يؤدي هذا إلى تعرض أنظمة الذكاء الاصطناعي لهجمات تعليقات برمجية متقدمة بسبب عدم وجود رقابة مستمرة وواعية بالسياسة. تقدم وصفة الأمان لذكاء الاصطناعي الوكالي من NVIDIA إطارًا شاملًا ومطابقًا للمستوى المؤسسي يمكن الشركات من بناء وتوزيع وتشغيل أنظمة ذكاء اصطناعي يمكن الوثوق بها وتناسقها مع السياسات الداخلية والمتطلبات التنظيمية الخارجية. الفوائد الرئيسية تتضمن الفوائد الرئيسية لتطبيق وصفة الأمان: تقييم وتناسق مبكر: توفير طريقة منظمة لتقييم وتناسق النماذج المفتوحة في مراحل مبكرة، مما يزيد من الأمان والسلامة والامتثال للتدفقات العملية لذكاء الاصطناعي الوكالي. حماية مستمرة: توفير حماية وضمان الأمان أثناء تشغيل النموذج في بيئات مختلفة على نطاق واسع. تحسين الأمان والسلامة: تحقيق تحسينات ملموسة في الأمان والسلامة دون تدهور في الدقة. تطبيق الدفاع في مراحل البناء والنشر والتشغيل خلال مرحلة البناء: - تقييم النموذج وتناسقه: خطوات أساسية لضمان تطابق مخرجات النموذج مع الغرض المحدد للشركة، ومعايير الأمن والثقة وتوقعات الخصوصية للمستخدمين والامتثال للقوانين التنظيمية. تقدم NVIDIA أدوات تقييم مثل الإطار NVIDIA NeMo باستخدام قواعد بيانات مفتوحة ونماذج مoderation. - فحص المحتوى الضار: قاعدة بيانات Nemotron Content Safety Dataset v2 ونموذج Llama Nemotron Safety Guard v2 وقاعدة بيانات WildGuardMix ونموذج AllenAI WildGuard تفحص بصرامة المحتوى الضار، مما يعزز سلامة المحتوى وتناسقه مع سياسات الشركة. - فحص ثغرات الأمان: أداة garak لفحص ثغرات الأمان في النماذج اللغوية الكبيرة تضمن صلابة النظام ضد التعليقات البرمجية العدائية ومحاولات تجاوز الحماية. بعد التدريب: - مراجعة شاملة للأمان والأمن: يتم إنشاء تقرير شامل لسلامة وأمن النموذج بعد التدريب، للتأكد من مطابقته لسياسات الشركة المحددة وامتثاله للمعايير المطلوبة. - إعادة تقييم الدقة المحددة للمهام: إعادة التقييم لدقة النموذج في المهام المحددة هي خطوة مهمة في هذه المرحلة. - نشر النموذج الموثوق: بعد التحقق من أن جميع التقييمات تلبي حدود الأعمال والأمان، يمكن النظر إلى النموذج على أنه موثوق به للنشر باستخدام LLM NIM microservice على نطاق واسع. خلال التشغيل الفعلي: - المخاطر المستمرة: رغم الحماية بعد التدريب، فإن التهديدات لا تنتهي عند هذه النقطة؛ هناك دائمًا مخاطر متبقية. - حماية برمجية مستمرة: يتم توفير حماية وسلامة مستمرة وقابلة للبرمجة أثناء تشغيل النموذج باستخدام نتائج تقييم garak وأدوات NeMo Guardrails. - منع المحتوى المتحيز أو السام: نموذج Llama 3.1 Nemoguard 8B Content Safety NIM يمنع الإخراج المتحيز أو السام. - ضمان التفاعل داخل المجالات المعتمدة: نموذج Llama 3.1 Nemoguard 8B Topic Control NIM يضمن بقاء التفاعلات داخل المجالات التجارية أو القانونية المعتمدة. - حماية ضد الهندسة البرمجية الخبيثة: نموذج Nemoguard Jailbreak Detect NIM يساعد في الدفاع ضد محاولات الهندسة البرمجية الخبيثة المصممة لتجاوز حماية النموذج. تحقيق المعايير الأمانية والأمنية الرائدة في الصناعة أظهرت المعايير الأمانية والأمنية الرائدة في الصناعة الفجوة بين النموذج المفتوح الأساسي والنموذج المعزز من خلال وصفة الأمان بعد التدريب: سلامة المحتوى: تحسنت سلامة المحتوى من 88% إلى 94%، بتحسن بنسبة 6% باستخدام وصفة الأمان بعد التدريب، باستخدام تدريب الأمان على السياسة حيث يتم توليد الردود بواسطة النموذج المستهدف أو نموذج مقرب منه. أمن المنتج: تحسن أمن المنتج من 56% إلى 63%,بتحسن بنسبة 7% باستخدام وصفة الأمان بعد التدريب، مما يوفر حماية ضد التعليقات البرمجية العدائية ومحاولات تجاوز الحماية وإنتاج المحتوى الضار. تساعد وصفة الأمان لذكاء الاصطناعي الوكالي من NVIDIA الشركات على تطبيق النماذج المفتوحة بدقة من التطوير إلى النشر، مما يتيح الحماية والاستخدام المسؤول لأنظمة ذكاء اصطناعي مؤسسية. الشركات التي تدمج وصفة الأمان من NVIDIA Active Fence: تمكن الشركات من نشر الوكلاء بأمان مع حواجز زمنية في الوقت الفعلي، مما يضمن تفاعلات أكثر أمانًا لأجهزة الذكاء الاصطناعي التوليدية. Cisco AI Defense: تتكامل مع NeMo لتقييم ثغرات النموذج باستخدام التجربة الحمراء الخوارزمية وتقديم حواجز أمان وخصوصية وحماية مكملة لتطبيقات التشغيل في الوقت الفعلي. CrowdStrike Falcon Cloud Security: تعمل مع دورة حياة التدريب NeMo، مما يسمح للعملاء بدمج الدروس المستفادة من الرصد المستمر للتعليقات البرمجية ومعلومات التهديدات من النماذج أثناء التشغيل في تدريب النموذج اللاحق. Trend Micro: تتكامل مع خط أنابيب تطوير النموذج NeMo لضمان توسع آليات الأمان للنموذج بشكل موثوق وآمن عبر بيئات الشركات. البدء في تحسين أمان نظام الذكاء الاصطناعي الخاص بك تقدم وصفة الأمان لذكاء الاصطناعي الوكالي مرجعًا منظمًا مصمم لتقييم وتناسق النماذج المفتوحة في وقت مبكر، مما يعزز الأمان والسلامة والامتثال للتدفقات العملية لذكاء الاصطناعي الوكالي. يمكن تنزيل الوصفة كدفتر ملاحظات Jupyter أو استخدام خيار النشر السحابي القابل للتشغيل من خلال NVIDIA Brev من موقع build.nvidia.com. التقييم من قبل متخصصين في المجال يؤكد الخبراء في مجال الأمن السيبراني وذكاء الاصطناعي أن وصفة الأمان من NVIDIA تعد خطوة هامة نحو تبني أنظمة ذكاء اصطناعي وكالية بشكل أكثر أمانًا ومسؤولية. تقدم هذه الوصفة أدوات قوية تساعد الشركات في إدارة المخاطر وضمان الامتثال للقوانين التنظيمية بفعالية. نبذة عن NVIDIA NVIDIA هي شركة تقنية رائدة في مجال معالجة الرسومات والذكاء الاصطناعي. تعتبر NVIDIA من الشركات الأولى في تطوير حلول تقنية تساعد في تحسين أمان وسلامة أنظمة الذكاء الاصطناعي، مما يجعلها شريكًا مهمًا للشركات التي تسعى لتبني تكنولوجيا الذكاء الاصطناعي بشكل مسؤول وآمن.