HyperAIHyperAI
منذ 8 أيام

10 مشاكل في الأمن والخصوصية في النماذج الأساسية الكبيرة

Jinyuan Jia, Hongbin Liu, Neil Zhenqiang Gong
10 مشاكل في الأمن والخصوصية في النماذج الأساسية الكبيرة
الملخص

النماذج الأساسية—مثل GPT و CLIP و DINO—أحرزت تقدماً ثورياً خلال السنوات القليلة الماضية، ويعتبرها الكثيرون نهجاً واعداً لتحقيق الذكاء الاصطناعي العام. وبشكل خاص، تُستخدم التعلم الذاتي التلقائي (self-supervised learning) لتدريب النموذج الأساسي مسبقاً باستخدام كميات كبيرة من البيانات غير المُعلمة. يشبه النموذج الأساسي المُدرّب مسبقاً "نظام تشغيل" للنظام البيئي للذكاء الاصطناعي. وبشكل محدد، يمكن استخدام النموذج الأساسي كمُستخرج ميزات لعدة مهام لاحقة، وبمقدار ضئيل أو لا يوجد بيانات مُعلمة على الإطلاق. ركّزت الدراسات الحالية على النماذج الأساسية بشكل رئيسي على تدريب نموذج أساسي أفضل لتحسين أداؤه في المهام اللاحقة ضمن بيئات غير مُتعمدة (non-adversarial)، ما ترك قضايا الأمان والخصوصية في البيئات المُتعمدة (adversarial) دون استكشاف كافٍ. إن أي مشكلة في الأمان أو الخصوصية تتعلق بالنماذج الأساسية المُدرّبة مسبقاً تمثل نقطة فشل واحدة (single point of failure) للنظام البيئي للذكاء الاصطناعي. في هذا الفصل من الكتاب، نناقش 10 مشكلات أساسية تتعلق بالأمان والخصوصية للنماذج الأساسية المُدرّبة مسبقاً، تشمل ستة مشكلات في مجال السرية (confidentiality)، وثلاثة مشكلات في مجال السلامة (integrity)، ومشكلة واحدة في مجال التوفر (availability). ولكل مشكلة، نستعرض الفرص المحتملة والتحديات المرتبطة بها. ونأمل أن يُلهم هذا الفصل الأبحاث المستقبلية في مجال أمان وخصوصية النماذج الأساسية.

10 مشاكل في الأمن والخصوصية في النماذج الأساسية الكبيرة | أحدث الأوراق البحثية | HyperAI