قانون أمان الذكاء الاصطناعي في نيويورك يُضعف بعد حملة إعلانية ممولة من شركات وجامعات
في خطوة تُعدّ مثيرة للجدل، تم تقويض مشروع قانون جديد يُعتبر رمزًا في مجال أمان الذكاء الاصطناعي في نيويورك، بعد أن وقّعت الحاكمة كاثي هوكول على نسخة معدلة من قانون RAISE (قانون السلامة والتعليم في الذكاء الاصطناعي المسؤول)، والتي أضعفت كثيرًا بنوده الأصلية. المشروع الأصلي، الذي اجتاز كلتا غرفتي البرلمان في يونيو، كان يفرض على شركات الذكاء الاصطناعي الكبرى مثل OpenAI، Anthropic، Meta، Google، وDeepSeek، وضع خطط أمان واضحة، وتقديم تقارير فورية عن الحوادث الأمنية الكبرى إلى المدعي العام، مع تحديد معايير صارمة لمنع إطلاق نماذج متقدمة إذا كانت قد تُسبب أضرارًا جسيمة، مثل وفاة 100 شخص أو تلف مالي بقيمة مليار دولار، أو تفعيل نماذج تُستخدم في تصنيع أسلحة كيميائية أو بيولوجية دون تدخل بشري. لكن النسخة التي وقّعتها هوكول حذفت هذه البنود الجوهرية، وطالت مدة الإبلاغ عن الحوادث، وخفّضت العقوبات. ويرجع هذا التحوّل جزئيًا إلى حملة إعلانية ممولة بقيمة تتراوح بين 17 ألفًا و25 ألف دولار، وفقًا لـMeta’s Ad Library، استهدفت أكثر من مليوني شخص، وظهرت بعنوان "سيُبطئ قانون RAISE نمو الوظائف". وادّعى الإعلان أن القانون "سيُبطئ نمو النظام التكنولوجي في نيويورك الذي يُمكّن 400 ألف وظيفة تقنية واستثمارًا كبيرًا". الجهة وراء هذه الحملة هي "التحالف الابتكاري للذكاء الاصطناعي" (AI Alliance)، وهو اتحاد يضم شركات تكنولوجية كبرى مثل Meta، IBM، Intel، Oracle، Uber، وHugging Face، بالإضافة إلى 150+ مؤسسة أكاديمية عالمية، من بينها جامعة نيويورك، كورنيل، دارتموث، كارنيغي ميلون، ونورث إيسترن، ويو دا نوتي دام. ورغم أن بعض الجامعات لا تمتلك شراكات مباشرة مع هذه الشركات، إلا أن هناك تعاونات ملموسة: مثل وصول 50 ألف طالب وموظف في نورث إيسترن إلى نموذج Claude من Anthropic، وتمويل OpenAI لمشروع أخلاقيات الصحافة في NYU، وشراكات حديثة مع دارتموث وكارنيغي ميلون. عند سؤال الجامعات المشاركة حول مشاركتها في الحملة، لم ترد سوى نورث إيسترن، ورفضت التعليق حتى وقت النشر. ورغم أن التحالف يدّعي مسؤوليته عن "العمل الجماعي المفتوح" لمعالجة تحديات الذكاء الاصطناعي وتحقيق مكاسب عامة، إلا أن تصرفاته تثير تساؤلات حول تحيّزه لصالح الشركات. وقد دافع التحالف عن مواقفه بحجة أن القانون "غير قابل للتطبيق"، ويدعو إلى "الابتكار المفتوح والموثوق". لكنه يُعدّ جزءًا من سلسلة من المبادرات الممولة لعرقلة تشريعات أمان الذكاء الاصطناعي، بما في ذلك قوانين كاليفورنيا (SB 1047) وتعليمات الرئيس بايدن. في المقابل، تُعدّ منظمة "Leading the Future"، وهي هيئة سياسية داعمة للذكاء الاصطناعي ممولة من OpenAI، Perplexity AI، Andreessen Horowitz، وJoe Lonsdale، جزءًا من الضغط السياسي الآخر، لكنها تختلف في طبيعتها كمنظمة سياسية، بينما التحالف هو منظمة غير ربحية تُقدم نفسها كمنصة للتعاون. النتيجة النهائية: مشروع قانون طُوّر كنموذج عالمي لأمان الذكاء الاصطناعي، أصبح أضعف بكثير من نسخته الأصلية، بفضل تأثير مالي وتنظيمي مكثف من شركات ومؤسسات أكاديمية تُعتبر شريكة في تطوير التكنولوجيا.
