"الملفات المسربة لتكنولوجيا OpenAI تدعو إلى مراقبة صارمة وإصلاحات حاكمة في سباق الوصول إلى الذكاء العام الاصطناعي"
رئيس مجلس الإدارة التنفيذي لشركة OpenAI، سام ألتمان، أكد أن البشرية على بعد سنوات قليلة من تطوير الذكاء العام الصناعي، الذي قد يتمكن من تلقائي عمل معظم الأنشطة البشرية. إذا كان هذا صحيحًا، فإن البشرية تستحق أيضًا أن تتعرف وتشارك في الأشخاص والآليات التي تقف خلف هذا القوة الهائلة والمشوِّشة. هذا هو الغرض الرئيسي وراء "ملفات OpenAI"، وهو مشروع أرشيفي من منظمة Midas Project ومنظمة Tech Oversight Project، وهما منظمتان غير ربحيتين تعملان كمراقبة للتقنية. تُشكِّل هذه الملفات مجموعة من القضايا الوثيقة المتعلقة بممارسات الحوكمة، وأمانة القيادة، وثقافة المنظمة في OpenAI. بالإضافة إلى زيادة الوعي، تهدف الملفات إلى اقتراح مسار مستقبلي لـ OpenAI وغيرها من الشركات الرائدة في مجال الذكاء الاصطناعي، بتركيز على الحوكمة المسؤولة، والقيادة الأخلاقية، والفوائد المشتركة. موقع المشروع يشير في رؤيته للتغيير إلى أن "هياكل الحوكمة ونزاهة القيادة التي توجه مشروعًا بهذه الأهمية يجب أن تعكس حجم وشدّة المهمة". يتعين على الشركات المتقدمة في سباق الوصول إلى الذكاء العام الصناعي أن تخضع، وأن تخضع نفسها، لمعايير عالية للغاية. حتى الآن، أدى السعي نحو التفوق في الذكاء الاصطناعي إلى توسُّع غير مسبوق - منطق النمو بأي ثمن أدى إلى جعل شركات مثل OpenAI تقوم بجمع المحتوى دون إذن لأغراض التدريب، وبناء مرافق بيانات ضخمة تسبب انقطاعات في الكهرباء وارتفاع تكاليف الكهرباء للمستهلكين المحليين. كذلك أدت الضغوط على الشركات لcommercialization إلى إطلاق منتجات قبل وضع الحمايات اللازمة، خاصة مع تزايد الضغط من المستثمرين لتحقيق الربح. هذا الضغط الاستثماري غيَّر هيكل OpenAI الأساسي. توضح ملفات OpenAI كيف أن الشركة، في أيامها الأولى كمنظمة غير ربحية، كانت قد حدَّدت أرباح المستثمرين بحد أقصى 100 مرة، حتى تتمكن أي أرباح تحققها من الذكاء العام الصناعي من العودة بالنفع على البشرية. لكن الشركة أعلنت منذ ذلك الحين خططها لإلغاء هذا الحد، مُعترفة بأنها قامت بتلك التغييرات لتلبية شروط المستثمرين الذين جعلوا التمويل مشروطًا بالإصلاحات الهيكلية. تشير الملفات أيضًا إلى مشاكل مثل عمليات تقييم السلامة المتسارعة و"ثقافة الاستهتار" في OpenAI، فضلاً عن الصراعات المحتملة للمصالح بين أعضاء مجلس إدارة الشركة والرئيس التنفيذي ألتمان نفسه. كما تضم قائمة بمواقع البداية التي قد تكون جزءًا من محفظة ألتمان الاستثمارية والتي لها أعمال مُتداخلة مع OpenAI. تثير ملفات OpenAI أسئلة حول سلامة ألتمان، وهي مسألة كانت موضوع تكهنات بعد محاولة الموظفين الكبار إقصاءه في عام 2023 بسبب "سلوك مخادع وفوضوي". قال إيليا سوتسكيفر، الرئيس السابق للعلماء في OpenAI، في ذلك الوقت: "لا أعتقد أن سام الشخص المناسب الذي يجب أن يكون لديه اليد العليا في الذكاء العام الصناعي". الأسئلة والحلول التي تطرحها ملفات OpenAI تُذكِّرنا بأن قوة هائلة تقع في أيدي قليلة، مع شفافية محدودة ورقابة محدودة. تقدم هذه الملفات نظرة على ذلك الصندوق الأسود وتسعى إلى تحويل الحوار من مسألة الحتمية إلى المسائلة. ريبيكا بيلان هي مراسلة رفيعة المستوى في TechCrunch، حيث تغطي تسلا وإمبراطورية إيلون ماسك الأوسع، والاستقلالية، والذكاء الاصطناعي، والإلكترفيشن، ومنصات العمل المؤقت، والتدقيق التنظيمي لشركات التقنية الكبرى وغيرها. تعمل بشكل مشترك كمضيفة لبودكاست Equity وكاتبة للنشرة الصباحية اليومية لـ TechCrunch. كانت سابقًا تعمل في مجال التواصل الاجتماعي لصالح Forbes.com، وقد ظهرت أعمالها في منصات مثل بلومبرغ سيتي لايب، ذا أتلانتيك، ذا ديلي بيست، ماذر جونز، i-D (من ناشر Vice). استثمرت ريبيكا في إيثريوم.