Kalifornia تسعى مرة أخرى للرقابة على شركات الاستذكار الاصطناعي الكبرى مع اقتراح إطار جديد للشفافية وتقييمrisks
كاليفورنيا تحاول تنظيم شركاتها العملاقة في مجال الذكاء الاصطناعي مرة أخرى في سبتمبر من العام الماضي، كان الجميع يتابعون مشروع القانون 1047 المقدم للسناتور غافين نيوسوم، حاكم ولاية كاليفورنيا، والذي تم رفضه في النهاية. كان هذا القانون يهدف إلى إلزام مصنعي نماذج الذكاء الاصطناعي الكبيرة، وخاصة تلك التي تتطلب تكلفة تدريب تزيد عن 100 مليون دولار، باختبارها لمخاطر محددة. لم يكن هذا القرار مرضيًا للكثير من المبلغين عن المخالفات في صناعة الذكاء الاصطناعي، بينما ارتاح له معظم الشركات التكنولوجية الكبرى. لكن القصة لم تنته هناك. بعد أن وجد نيوسوم القانون صارمًا جدًا وغير مرن، كلف مجموعة من الباحثين الرائدين في مجال الذكاء الاصطناعي بوضع خطة بديلة. تم نشر هذا التقرير البالغ 52 صفحة يوم الثلاثاء، حيث أشارت المؤلفات إلى أن قدرات الذكاء الاصطناعي، بما في ذلك قدرتها على "التفكير" واتخاذ القرارات، قد تحسنت بشكل كبير منذ قرار نيوسوم برفض القانون. استخدموا دراسات تاريخية وأبحاث تجريبية ونمذجة ومحاكاة لاقتراح إطار عمل جديد يتطلب المزيد من الشفافية والتدقيق المستقل لنماذج الذكاء الاصطناعي. تأثير الذكاء الاصطناعي على مختلف القطاعات أكدت المؤلفات أن الاختراقات الكبيرة في الذكاء الاصطناعي في كاليفورنيا يمكن أن تكون لها آثار كبيرة على قطاعات متعددة مثل الزراعة، البيوتكنولوجيا، التكنولوجيا النظيفة، التعليم، المالية، الطب والنقل. على الرغم من أهمية عدم قمع الابتكار، فإنهم شددوا على أن تقليل المخاطر يظل أولوية قصوى: "بدون الضمانات المناسبة، يمكن للذكاء الاصطناعي القوي أن يسبب أضرارًا شديدة، وفي بعض الحالات، قد تكون هذه الأضرار غير قابلة للعكس." تطورات وتغييرات في التقرير نشرت المجموعة نسخة مسودة من تقريرها في مارس للتعليق العام. ومع ذلك، بينوا في النسخة النهائية أن الأدلة على أن هذه النماذج تساهم في مخاطر الأسلحة الكيميائية والبيولوجية والإشعاعية والنuclear (CBRN) قد زادت. أشارت الشركات الرائدة إلى ارتفاع مقلق في قدرات نماذجها في هذه المجالات. قدم المؤلفون عدة تغييرات على المسودة، بما في ذلك التركيز على التعامل مع "الحقائق الجيوسياسية المتغيرة بسرعة." أضافوا أيضًا المزيد من السياق حول المخاطر التي تشكلها نماذج الذكاء الاصطناعي الكبيرة، وشددوا على أن التركيز على الحاجة الحاسوبية للتدريب لا يعتبر أفضل نهج. أهمية الشفافية والتدقيق المستقل يتجلى العائق الأكبر في قطاع الذكاء الاصطناعي في نقص الشفافية، حيث توجد قلة من الاتفاقات حول الممارسات المثلى و"عقم نظامي" في مناطق رئيسية مثل كيفية الحصول على البيانات، وعمليات السلامة والأمان، واختبارات ما قبل الإصدار، والتأثير المحتمل على المدى البعيد. يدعو التقرير إلى حماية المبلغين عن المخالفات، وتقييمات مستقلة من طرف ثالث مع حماية الباحثين الذين يقومون بهذه التقييمات، ومشاركة المعلومات مباشرة مع الجمهور. أشار أحد مؤلفي التقرير الرئيسيين، سكوت سينغر، إلى أن محادثات السياسة المتعلقة بالذكاء الاصطناعي قد "تغيرت تمامًا على المستوى الفيدرالي" منذ نشر المسودة. حذر من أن كاليفورنيا يمكن أن تقود جهدًا لتوحيد السياسات بين الولايات لمصلحة "سياسات عقلانية يدعمها الكثير من الناس عبر البلاد." هذا يتناقض مع المزاعم بأن قوانين الولاية ستصنع "شبكة غير منتظمة" كما يدعى مؤيدو تعليق تنظيم الذكاء الاصطناعي. دور التقييم من طرف ثالث دعا الرئيس التنفيذي لشركة Anthropic، داريو أمودي، في مقال رأي الشهر الماضي إلى وضع معيار شفافية فيدرالي يلزم الشركات الرائدة في الذكاء الاصطناعي "بالكشف بشكل عام على مواقعها الإلكترونية عن كيف تخطط لاختبار ومكافحة المخاطر الأمنية الوطنية وغيرها من المخاطر الكارثية." ومع ذلك، أكد مؤلفو التقرير أن هذه الخطوات وحدها غير كافية، لأن "المطورين بمفردهم ببساطة غير كافيين لفهم التكنولوجيا بشكل كامل، وخاصة مخاطرها وأضرارها." يؤكد التقرير على ضرورة وجود تقييم مستقل للمخاطر من طرف ثالث. يمكن أن يحفز هذا على زيادة سلامة النماذج من قبل شركات مثل OpenAI، Anthropic، Google، Microsoft وغيرها، بينما يساعد على رسم صورة أكثر وضوحًا للمخاطر المرتبطة بنماذجها. حاليًا، تقوم الشركات الرائدة في الذكاء الاصطناعي بتقييمات داخلية أو تستأجر شركات ثانية لإجراء هذه التقييمات. ولكن التقييم من طرف ثالث ضروري، حيث أن "آلاف الأفراد على استعداد للمشاركة في تقييم المخاطر، مما يفوق نطاق الفرق الداخلية أو المتعاقدة." تحديات الوصول إلى البيانات حتى إذا سمحت الشركات للتقييم من طرف ثالث، يجب أن توفر لهم الوصول الكافي للقيام بتقييمات ذات معنى. ليس من السهل حتى بالنسبة للمقيمين من طرف ثاني الحصول على هذا المستوى من الوصول. على سبيل المثال، كتبت شركة Metr، التي تتعاون مع OpenAI لاختبار سلامة نماذجها، أنها لم تُمنح وقتًا كافيًا لاختبار نموذج o3 مقارنة بالنماذج السابقة، ولم يتم توفير بيانات أو معلومات كافية حول تفكير النموذج الداخلي. أشارت Metr إلى أن هذه القيود "تمنعنا من إجراء تقييمات قوية للقدرات." ردت OpenAI بأنها تبحث سبل مشاركة المزيد من البيانات مع شركات مثل Metr. حتى واجهة برمجة التطبيقات (API) أو الكشف عن وزن النموذج قد لا يتيح للمقيمين من طرف ثالث اختبار المخاطر بشكل فعال، وقد تستخدم الشركات شروط الخدمة "المقيدة" لمنع أو تهديد الباحثين المستقلين الذين يكتشفون عيوب الأمان. في مارس، وقع أكثر من 350 باحثًا في صناعة الذكاء الاصطناعي رسالة مفتوحة تطالب بـ"منطقة آمنة" لاختبار السلامة المستقل للذكاء الاصطناعي، مشابهة للحماية الموجودة لاختبارات الأمن السيبراني في مجالات أخرى. يشير تقرير الثلاثاء إلى هذه الرسالة ويدعو إلى تغييرات كبيرة، بالإضافة إلى خيارات الإبلاغ للأشخاص المتضررين من أنظمة الذكاء الاصطناعي. "حتى السياسات الآمنة المصممة بشكل مثالي لا يمكنها منع 100% من النتائج السلبية الهامة"، كتب المؤلفون. "مع اعتماد النماذج الأساسية على نطاق واسع، فإن فهم الأضرار التي تحدث في الممارسة أصبح مهمًا بشكل متزايد." تقييم الخبراء ونبذة عن الشركات يُعتبر هذا التقرير خطوة مهمة نحو تحقيق التوازن بين الابتكار وتقليل المخاطر في مجال الذكاء الاصطناعي. يشدد الخبراء على أن كاليفورنيا، بوصفها مهد الصناعة التكنولوجية، يجب أن تكون في مقدمة الجهود لتطبيق سياسات أكثر شفافية وفعالية. ومع زيادة الاهتمام بموضوع الذكاء الاصطناعي على المستوى الوطني، يمكن أن تلعب كاليفورنيا دورًا رائدًا في تشكيل مستقبل التنظيم في هذا المجال. شركة OpenAI، كواحدة من الشركات الرائدة في الذكاء الاصطناعي، تواجه تحديات في مشاركة البيانات والمعلومات اللازمة لإجراء تقييمات مستقلة. ومع ذلك، فإن خطواتها الأولى نحو تحسين الشفافية، مثل استكشاف سبل مشاركة المزيد من البيانات، تعد إيجابية. تعتبر هذه الجهود حيوية لضمان استخدام التكنولوجيا بشكل آمن ومسؤول.