HyperAI
Back to Headlines

تسريب مستندات Scale AI يكشف ثغرات أمنية خطيرة في مشاريع الذكاء الاصطناعي مع شركات كبرى مثل غوغل وفيسبوك

منذ 7 أيام

ثغرات أمنية في مشاريع الذكاء الاصطناعي لشركة Scale AI في أعقاب الاستثمار الضخم الذي قامت به شركة ميتا بمبلغ 14.3 مليار دولار في شركة Scale AI، كشفت وثائق مسربة وشهادات من المتعاقدين مع الشركة عن وجود ثغرات أمنية خطيرة. حسبما ذكرته "بيزنس إنسايدر"، تستخدم Scale AI بشكل روتيني ملفات Google Docs العامة لتتبع العمل لعملاء كبار مثل جوجل، ميتا، وxAI، مما يجعل وثائق تدريب الذكاء الاصطناعي المصنفة "سرية" متاحة لأي شخص يمتلك الرابط. وثائق سرية متاحة للجميع تمكنت بييزنس إنسايدر من رؤية آلاف الصفحات من الوثائق المرتبطة بمشاريع Scale AI مع شركات التكنولوجيا الكبرى. تضمنت هذه الوثائق تفاصيل حساسة، مثل كيفية استخدام جوجل لـ ChatGPT لتحسين محادثات الدردشة الخاصة بها (Bard). كما تم ترك العديد من الدلائل السرية المحددة من قبل جوجل متاحة للعامة، مما يوضح ما كان يراه جوجل خاطئًا في Bard وكيف يجب على المتعاقدين تصحيحه. في حالة xAI، التي شاركت فيها Scale في عشرة مشاريع للذكاء الاصطناعي حتى أبريل، كشفت الوثائق العامة تفاصيل "مشروع الكمان"، الذي ركز على تحسين مهارات المحادثة للذكاء الاصطناعي في مجموعة متنوعة من المواضيع، من نهاية العالم الزومبي إلى السباكة. بالنسبة لميتا، تم ترك وثائق التدريب المصنفة "سرية" متاحة للعامة، بما في ذلك روابط لملفات صوتية تقدم أمثلة على التعابير الجيدة والسيئة للمحادثات، مما يشير إلى المعايير التي حددها ميتا لتحسين تعبيرية منتجاتها من الذكاء الاصطناعي. معلومات المتعاقدين الشخصية متاحة للعامة فضلاً عن الوثائق السرية للمشاريع، كشفت بعض ملفات Google Docs عن معلومات شخصية حساسة عن المتعاقدين مع Scale AI، بما في ذلك أسمائهم وعناوين البريد الإلكتروني الخاصة بهم. تم تصنيف بعض هذه العناوين وفقًا لجودة عملهم أو اشتباههم في الغش. أحد المتعاقدين قال إنه فوجئ عندما علم بأن تفاصيله متاحة للعامة. تقييم الخبراء حذر خبراء الأمن السيبراني من أن استخدام Scale AI لملفات Google Docs العامة يمكن أن يترك الشركة وعملائها عرضة لهجمات مختلفة. قال جوزيف شتاينبرغ، محاضر الأمن السيبراني في جامعة كولومبيا، إن هذا الأمر "خطير بالطبع". يمكن أن يتم استغلال هذه الثغرات من خلال هجمات الهندسة الاجتماعية، حيث يقوم القراصنة بخداع الموظفين أو المتعاقدين للحصول على الوصول. أما ستيفاني كرتز، مدير إقليمي في شركة Trace3 للأمن السيبراني، فأشارت إلى أن تمكن أي شخص من تحرير الوثائق يشكل مخاطر كبيرة، مثل إدخال روابط ضارة. رد فعل Scale AI أكدت Scale AI أنها تأخذ أمن البيانات على محمل الجد وأنها تجري تحقيقًا شاملًا. قالت الشركة إنها قامت بإلغاء إمكانية مشاركة الوثائق بشكل عام وأنها ملتزمة بتعزيز المعايير الفنية والسياساتية لحماية المعلومات السرية. توقف العمل مع العملاء بعد الاستثمار الكبير من ميتا، أوقف عملاء مثل جوجل وOpenAI وxAI العمل مع Scale AI مؤقتًا. في مدونة نشرتها الشركة مؤخرًا، أشارت إلى أنها تظل شريكًا محايدًا ومستقلًا مع معايير أمنية صارمة. نبذة عن Scale AI تأسست Scale AI في عام 2016 بواسطة ألكسندر وانج، وهي شركة رائدة في مجال توفير بيانات عالية الجودة للتدريب على الذكاء الاصطناعي. تشتهر الشركة بقدرتها على تدريب نماذج الذكاء الاصطناعي الكبيرة والمعقدة، مما جعلها خيارًا مفضلًا للعديد من شركات التكنولوجيا الرائدة. رغم ذلك، فإن هذه الثغرات الأمنية تثير تساؤلات حول مدى جدية الشركة في حماية بيانات عملائها ومتعاقديها.

Related Links