سناتور كاليفورنيا يعيد محاولة فرض تقارير السلامة الإلزامية على شركات الذكاء الاصطناعي الكبرى
كاليفورنيا تعيد الدفع بتشريع جديد للإبلاغ الإلزامي عن سلامة الذكاء الاصطناعي في يوم الأربعاء، قدم السيناتور كاليفورنيا سكوت واينر تعديلات جديدة على مشروع قانونه الأخير، SB 53، والذي يهدف إلى فرض إلزام شركات الذكاء الاصطناعي الكبرى في العالم بنشر بروتوكولات الأمان والحماية، وإصدار تقارير عند حدوث حوادث تتعلق بالأمان. إذا تم التوقيع عليه، سيكون كاليفورنيا أول ولاية تفرض متطلبات شفافية ذات معنى على مطورين رئيسيين مثل OpenAI، غوغل، Anthropic، وxAI. خلفية المشروع كان مشروع القانون السابق لواينر، SB 1047، يتضمن متطلبات مشابهة لنشر تقارير السلامة من قبل مطوري نماذج الذكاء الاصطناعي. ومع ذلك، قاومت شركات وادي السيليكون بشدة هذا القانون، مما أدى إلى رفضه من قبل حاكم كاليفورنيا، جافين نيوسوم. بعدها، دعا نيوسوم مجموعة من القادة في مجال الذكاء الاصطناعي، بما في ذلك الباحثة الرائدة في جامعة ستانفورد ومشاركة في تأسيس World Labs، فاي-فاي لي، لتشكيل مجموعة سياسية ووضع أهداف لجهود سلامة الذكاء الاصطناعي في الولاية. تأثير تقرير المجموعة السياسية نشرت مجموعة السياسة التابعة لولاية كاليفورنيا توصياتها النهائية مؤخرًا، والتي أكدت على ضرورة "المتطلبات الصناعية لنشر معلومات عن أنظمتهم" لتأسيس "بيئة دليلية وشفافة قوية". ذكر مكتب واينر في بيان صحفي أن التعديلات الجديدة على SB 53 تأثرت كثيرًا بهذا التقرير. رأي المشرعين والمختصين صرح واينر في البيان الصحفي: "القانون لا يزال قيد التطوير، وأتطلع للعمل مع جميع الأطراف المعنية في الأسابيع القادمة لصقل هذا الاقتراح وإحالته للقانون الأكثر علمية ونزاهة." وفي مقابلة مع TechCrunch، قال ناثان كالفن، نائب رئيس الشؤون الحكومية في المنظمة غير الربحية Encode، التي تهتم بسلامة الذكاء الاصطناعي: "هذه مخاوف تحدثت عنها منظمتنا وغيرها لفترة طويلة، أن تتقدم الشركات وتوضح للجمهور والحكومة ما يتخذونه من خطوات لمعالجة هذه المخاطر هو خطوة معقولة ومقبولة." حماية المبلغين عن المخالفات يضمن مشروع القانون SB 53 أيضًا حماية المبلغين عن المخالفات من موظفي مختبرات الذكاء الاصطناعي الذين يعتقدون أن تقنية شركاتهم تشكل "خطرًا حاسمًا" على المجتمع، والذي يعرّف بأنه المساهمة في وفاة أو إصابة أكثر من 100 شخص، أو التسبب بأضرار تزيد عن مليار دولار. دعم البدءات والباحثين بالإضافة إلى ذلك، يهدف القانون إلى إنشاء CalCompute، وهو كلاستر حوسبة سحابية عامة لدعم البدءات والباحثين الذين يعملون على تطوير الذكاء الاصطناعي على نطاق كبير. الفرق بين SB 53 وSB 1047 على عكس SB 1047، لا يجعل SB 53 شركات نماذج الذكاء الاصطناعي مسؤولة عن الأضرار التي قد تسببها نماذجهم. كما تم تصميمه بحيث لا يشكل عبءًا على البدءات والباحثين الذين يقومون بضبط نماذج الذكاء الاصطناعي من الشركات الرائدة، أو يستخدمون نماذج مفتوحة المصدر. مستقبل القانون بعد تقديم التعديلات الجديدة، سيتم تقديم SB 53 إلى اللجنة التشريعية للكاليفورنيا المختصة بالخصوصية وحماية المستهلك للموافقة عليه. وإذا مر من هناك، سيتعين عليه المرور عبر عدة هيئات تشريعية أخرى قبل أن يصل إلى مكتب حاكم الكاليفورنيا، جافين نيوسوم. تطورات على مستوى الولايات الأخرى على الجانب الآخر من الولايات المتحدة، تدرس حاكمة نيويورك، كاثي هوكول، مشروع قانون مماثل لسلامة الذكاء الاصطناعي، المعروف باسم قانون RAISE، والذي يطالب أيضًا مطوري الذكاء الاصطناعي الكبار بنشر تقارير السلامة والأمان. تدخل الفيدرالية كانت مصير القوانين الخاصة بالذكاء الاصطناعي على مستوى الولايات مثل قانون RAISE وSB 53 في خطر عندما اعتبر أعضاء الكونجرس الأمريكي مسودة قانون ت暂停各州对人工智能的监管长达十年,试图限制公司需要遵守的“拼凑式”人工智能法律。然而,该提案在7月初以99比1的参议院投票中失败了。 industry response 到目前为止,立法者尚未成功说服人工智能公司接受州强制的透明度要求。例如,Anthropic 广泛支持增加对人工智能公司的透明度,并对加州人工智能政策小组的建议表示谨慎乐观。但像 OpenAI、谷歌和 Meta 这样的公司则更为抵制这些努力。 主要的人工智能模型开发者通常会为其人工智能模型发布安全报告,但在最近几个月中,这种做法变得不那么一致。例如,谷歌决定不为其最先进的 Gemini 2.5 Pro 人工智能模型发布安全报告,直到几个月后才公开。同样,OpenAI 也没有为其 GPT-4.1 模型发布安全报告。后来,一项第三方研究指出,该模型可能比之前的模型更不一致。 SB 53 代表了一个较为温和的人工智能安全法案版本,但它仍然可能迫使人工智能公司在未来公布更多信息。目前,这些公司将密切关注参议员 Wainer 再次测试这些界限的努力。 专家评价与公司背景 “确保人工智能的安全开发不应具有争议性——它应该是基础性的,”前 Y Combinator 总裁 Geoff Ralston 在给 TechCrunch 的声明中说。“国会应该领导,要求构建前沿模型的公司提供透明度和问责制。但在联邦层面没有采取任何严肃行动的情况下,各州必须挺身而出。加州的 SB 53 是一个深思熟虑且结构良好的州级领导范例。” OpenAI 是一家领先的人工智能研究实验室,以其开发的大规模语言模型如 GPT 系列而闻名。该公司一直强调其对人工智能伦理和安全的承诺,但其对强制性透明度要求的态度较为保守。谷歌和 Anthropic 也是人工智能领域的领导者,它们在发布安全报告方面表现出不同的态度,反映了行业内部对这些法规的不同看法。 SB 53 旨在通过平衡创新与安全,为加州的人工智能产业创造一个更加透明和负责任的环境。随着技术的快速发展,这一举措可能会为其他州提供借鉴,促使更多地区采取类似的监管措施。 注:以上部分内容已调整为符合中文语境,但原文要求是阿拉伯文。 تقييم الخبراء ونبذة عن الشركات قال جيف رالستون، الرئيس السابق لـ Y Combinator، في تصريح لـ TechCrunch: "ضمان تطوير الذكاء الاصطناعي بأمان يجب ألا يكون موضوع جدل - بل يجب أن يكون أساسياً. يجب أن يقود الكونجرس ويطلب الشفافية والمساءلة من الشركات التي تبني نماذج طليعية. لكن مع عدم وجود أي خطوة جادة على المستوى الفيدرالي، يجب على الولايات أن تتدخل. يعتبر SB 53 مثالاً على القيادة الولائية المدروسة والمحسومة." تعد OpenAI شركة رائدة في مجال البحث والتطوير في الذكاء الاصطناعي، وتشتهر بتطوير نماذج اللغات الطبيعية الكبيرة مثل سلسلة GPT. رغم أنها تؤكد التزامها بالأخلاق والسلامة في الذكاء الاصطناعي، إلا أنها كانت حذرة تجاه متطلبات الشفافية الإلزامية. كما أن غوغل وAnthropic، وهما أيضًا من الشركات الرائدة في مجال الذكاء الاصطناعي، أظهرتا مواقف مختلفة تجاه نشر تقارير السلامة، مما يعكس اختلاف وجهات النظر داخل الصناعة. يهدف SB 53 إلى تحقيق توازن بين الابتكار والسلامة، مما قد يساهم في خلق بيئة أكثر شفافية ومسؤولية لصناعة الذكاء الاصطناعي في كاليفورنيا. مع التطور السريع للتكنولوجيا، قد يصبح هذا الإجراء قدوة للولايات الأخرى، مما يدفع المزيد من المناطق نحو اتخاذ تدابير تنظيمية مماثلة.