أنتروبيك تدعم مشروع قانون سلامة الذكاء الاصطناعي في كاليفورنيا، في تحول نادر يعزز مساره legislative
في خطوة نادرة، أعلنت شركة أنتروبيك (Anthropic) تأييدها لمشروع قانون كاليفورنيا رقم SB 53، الذي يفرض شروطًا أولية في العالم على مطوري نماذج الذكاء الاصطناعي المتقدمة، ويُعدّ من أبرز مبادرات التنظيم في مجال الذكاء الاصطناعي على المستوى المحلي. يُعدّ التأييد مكسبًا كبيرًا للقانون، خاصةً مع معارضة شركات تقنية كبرى مثل غرفة التجارة الأمريكية (CTA) و"غرفة التقدم" (Chamber for Progress)، التي تضغط ضد القانون. يهدف SB 53، المقدّم من السناتور سكوت وينر، إلى فرض التزامات واضحة على شركات الذكاء الاصطناعي الكبرى مثل OpenAI، جوجل، وxAI، بوضع إطار أمني داخلي، وإصدار تقارير أمان وحماية قبل إطلاق النماذج القوية. كما يُعزز القانون حماية المُبلّغين عن المخاطر، ما يشجع الموظفين على الإبلاغ عن مخاوف أمنية دون خوف من الانتقام. يُركّز القانون على المخاطر الكارثية، محدّدًا أنها تشمل وقوع 50 حالة وفاة أو أضرار تتجاوز مليار دولار. ويشمل ذلك منع استخدام النماذج في تطوير أسلحة بيولوجية أو تنفيذ هجمات إلكترونية متقدمة، بخلاف المخاطر القريبة مثل عروض الفيديو المزيفة أو التلاعب النفسي. رغم موافقة مجلس الشيوخ في كاليفورنيا على نسخة سابقة من القانون، لا يزال يتطلب تصويتًا نهائيًا قبل أن يُرسل إلى مكتب الحاكم جافين نوسم. لم يُعلّق نوسم على القانون حتى الآن، رغم أنه أوقف مشروع قانون سابق له، SB 1047. واجهت قوانين الذكاء الاصطناعي المتقدمة معارضة شديدة من صناعة التكنولوجيا، التي ترى أن التنظيم على المستوى الفيدرالي هو الأفضل، خشية تكوين نظام متعدد التوجهات يعيق الابتكار. كما حذّرت شركات مثل أندريسيون هورويتز وY Combinator من أن مثل هذه القوانين قد تنتهك "مبدأ التجارة" في الدستور الأمريكي، ما يمنع الولايات من فرض قواعد تؤثر على التجارة عبر الحدود. رغم ذلك، يرى جاك كلارك، أحد مؤسسي أنتروبيك، أن الصناعة ستُطور نماذج قوية بغض النظر عن التأخير الفيدرالي، مؤكدًا أن SB 53 يقدّم "مخططًا قويًا" للتنظيم، لا يمكن تجاهله. ورغم أن أنتروبيك تفضّل معيارًا فدراليًا، فإنها ترى أن هذا القانون يُمثّل خطوة عملية في غياب تعاون وطني. أُرسلت رسالة من كريس ليهان، مسؤول الشؤون العالمية في OpenAI، إلى نوسم في أغسطس، حذر فيها من أن أي تنظيم قد يُخرج الشركات الناشئة من كاليفورنيا، دون ذكر SB 53 صراحة. وردّ ميلز برينداج، الخبير السابق في سياسة الذكاء الاصطناعي في OpenAI، بأن الرسالة "مليئة ببيانات مضللة"، مشيرًا إلى أن القانون يركّز فقط على الشركات الكبرى التي تحقق دخلًا يفوق 500 مليون دولار. الخبراء يرون أن SB 53 أكثر واقعية من مشاريع سابقة. دين بال، خبير سابق في سياسة الذكاء الاصطناعي بالبيت الأبيض، وصفه بأنه يُظهر "احترامًا للواقع التقني" و"تحفظًا تشريعيًا"، معتبرًا أن فرص نجاحه أعلى من سابقاته. وقد أُعدّ القانون بمساعدة فريق استشاري خبراء تشكّل بقيادة فاي-في لي، الباحثة في ستانفورد ومؤسسة World Labs، التي شاركت في توجيه سياسة كاليفورنيا في الذكاء الاصطناعي. على الرغم من أن شركات كبرى مثل OpenAI وGoogle DeepMind وأنتروبيك تُصدر تقارير أمان دورية، إلا أن هذه التقارير تظل تطوعية وغالبًا ما تُختَلَف. SB 53 يحوّل هذه الممارسات إلى التزامات قانونية، مع عقوبات مالية في حال الإخلال. في سبتمبر، أُزيلت من القانون بنود تطلب تدقيقًا من طرف ثالث، استجابة لاعتراضات الشركات التي ترى هذه المعايير مرهقة. لكنّ القانون يبقى مسارًا واعدًا لتنظيم الذكاء الاصطناعي على مستوى الدولة، في غياب تعاون فدرالي.
