قانون الذكاء الاصطناعي الجديد في كاليفورنيا يمنح شركات التكنولوجيا الكبرى ما كانت تريده بالضبط
بعد فشل مشروع قانون S.B. 1047 الذي كان يهدف إلى فرض قيود صارمة على استخدام الذكاء الاصطناعي، أقرّت ولاية كاليفورنيا قانوناً جديداً يُعَدّ تنازلاً كبيراً لصالح شركات التكنولوجيا الكبرى. ويُعدّ هذا التحوّل مفاجئاً في سياق التحركات الأخيرة لتنظيم الذكاء الاصطناعي، حيث تراجعت المطالب بفرض مسؤولية أكبر على الشركات، وتم تقليل القيود بشكل ملحوظ. القانون الجديد، الذي وقّعه الحاكم جافين نيوسوم، يفرض على الشركات التي تُنتج أو تُستخدم أنظمة ذكاء اصطناعي متقدمة، مثل النماذج الكبيرة، التصريح عن استخدامها في المحتوى الرقمي. لكن ما يُميّزه عن النسخة السابقة هو إلغاء ما يُعرف بـ"مفتاح القتل" – أي القدرة على إيقاف التزامات الكشف بشكل فوري في حالات الطوارئ أو التغيرات السريعة في التكنولوجيا. هذا التخلي عن الميزة التقييدية يُعدّ تنازلاً واضحاً لصالح شركات مثل جوجل، ميتا، وأبل، التي كانت تعارض بشدة أي قيود تُعرّض تطويرها للفوضى أو التأخير. القانون الجديد يُلزم الشركات بوضع إشعارات واضحة عند استخدام الذكاء الاصطناعي في إنتاج المحتوى، سواء في الصور، أو الفيديو، أو النصوص. لكنه يُسمح لها بتأجيل الإفصاح في حالات محددة، مثل الأبحاث أو التطوير الداخلي، ما يترك مجالاً واسعاً للتأويل. كما أن العقوبات المفروضة على المخالفين محدودة نسبياً، وتتراوح بين الغرامات المالية والإجراءات التنظيمية، دون تهديد مباشر بوقف العمليات. المحرك وراء هذا التحوّل كان ضغط شديد من شركات التكنولوجيا الكبرى، التي حذرت من أن قوانين صارمة قد تُبطئ الابتكار، وتُعرّض مكانتها العالمية للخطر. ورغم دعوات من نشطاء حماية الخصوصية وخبراء الذكاء الاصطناعي إلى تشديد القواعد، تراجع الاهتمام السياسي بفرض مسؤولية أكبر، خصوصاً في ظل انتخابات مقبلة وانشغالات سياسية متعددة. من الجدير بالذكر أن هذا القانون لا يُطبّق على كل أنواع الذكاء الاصطناعي، بل فقط على الأنظمة التي تُستخدم في إنتاج محتوى "مُضلّل" أو "مُضلل" بشكل كبير، مثل الصور المُزيفة أو الفيديوهات المُعدّلة. لكن التحديد الدقيق لمعني "المُضلّل" يبقى غامضاً، ما يفتح الباب أمام تفسيرات متعددة من قبل الشركات. في المقابل، يرى البعض أن القانون يُعدّ خطوة أولى مهمة نحو التأسيس لتنظيم مرن، يوازن بين حماية المستخدمين وتمكين الابتكار. لكن آخرون يرون أنه يُشجّع على "الكذب المُعلن" – حيث تُستخدم أدوات الذكاء الاصطناعي بحرية، ولكن بشرط إخبار الناس أنهم يرون محتوىً مُنتَجًا آلياً، دون ضمانات حقيقية حول مصداقية أو أخلاقيات الاستخدام. بالتالي، يُظهر هذا القانون صراعاً متزايداً بين الرغبة في تنظيم الذكاء الاصطناعي، وقوة الضغط التي تمتلكها شركات التكنولوجيا الكبرى. ويُشير إلى أن قوانين المستقبل قد لا تكون مبنية على مبادئ حماية المستهلك، بل على توازنات سياسية واقتصادية تُفضّل الاستقرار على التغيير الجذري.
