كاليفورنيا تصبح الولاية الأولى في الولايات المتحدة التي تنظم دردشة الروبوتات الذكية المُقرّبة
كاليفورنيا أصبحت أول ولاية في الولايات المتحدة تُنظّم استخدام روبوتات الدردشة الذكية الاصطناعية، بعد أن وقّع حاكم الولاية جافين نيسوم على قانون SB 243، الذي يفرض على شركات تشغيل هذه الروبوتات اتخاذ إجراءات أمان لحماية الأطفال والمستخدمين الضعفاء. يُعد القانون خطوة رائدة في مجال تنظيم الذكاء الاصطناعي، ويُلزم الشركات — من مختبرات ضخمة مثل ميتا وOpenAI إلى شركات متخصصة مثل Character AI وReplika — بتحمل مسؤولية قانونية إذا فشلت في الالتزام بمعايير السلامة. تم تقديم القانون في يناير من قبل Senators ستيف باديليا وجوش بيكر، وازدادت أهميته بعد وفاة الشاب آدم راين، الذي انتحر بعد سلسلة من المحادثات ذات طابع انتحاري مع ChatGPT التابعة لـOpenAI. كما أثارت وثائق داخلية مسربة تُظهر أن ميتا سمح لروبوتاتها بالمشاركة في محادثات "رومانسية" و"حساسة" مع قُصّر، مخاوف كبيرة. وفي وقت لاحق، رفعت عائلة كولورادو دعوى قضائية ضد Character AI بعد أن انتحرت ابنتهم البالغة من العمر 13 عامًاfollowing محادثات مُثيرة للقلق وتحتوي على محتوى جنسي. في بيانه، أكد نيسوم أن التكنولوجيا يمكن أن تُلهِم وتمدّ جسور التواصل، لكنها قد تُستغل دون رقابة، مشيرًا إلى أن "سلامة أطفالنا ليست للبيع". ودعا إلى قيادة في مجال الذكاء الاصطناعي، لكن بمسؤولية، مؤكدًا أن الولايات المتحدة يجب أن تُقدّم نموذجًا للتنظيم الأخلاقي. يُدخل القانون حيز التنفيذ في 1 يناير 2026، ويفرض على الشركات تطبيق ميزات مثل التحقق من العمر، وتحذيرات حول مخاطر الدردشة الافتراضية، وحماية من المحتوى الخطر. كما يُعزز العقوبات على الاستخدام غير القانوني للـDeepfakes، حيث تصل الغرامة إلى 250 ألف دولار لكل مخالفة. ويجب على الشركات وضع إجراءات لمعالجة حالات الانتحار والعنف الذاتي، وتزويد وزارة الصحة العامة ببيانات عن إرسال إشعارات للمركز الوطني للوقاية من الانتحار. يجب على المنصات توضيح أن المحادثات تتم بواسطة ذكاء اصطناعي، ويُمنع الروبوتات من التظاهر بمهنيين صحيين. كما يُشترط توفير تذكيرات لقطع الاستخدام للأطفال، ومنع عرض صور جنسية مُولَّدة بالذكاء الاصطناعي. بالفعل، بدأت بعض الشركات بتطبيق إجراءات وقائية: مثل إدخال أدوات رقابة للوالدين ونظام كشف السلوك الانتحاري في ChatGPT، ووضع شهادات واضحة في Character AI بأن المحادثات وهمية. ووصف باديليا القانون بأنه "خطوة في الاتجاه الصحيح"، مؤكدًا أن الولايات الأخرى يجب أن تتبع نهج كاليفورنيا، خاصة مع تأخر الحكومة الفيدرالية في التدخل. هذا القانون هو الثاني من نوعه الذي تُقره كاليفورنيا خلال أسابيع قليلة، بعد أن وقّع نيسوم على SB 53 في 29 سبتمبر، الذي يفرض شفافية على شركات الذكاء الاصطناعي الكبرى حول إجراءات السلامة، ويوفر حماية للمنبهين عن المخالفات داخل الشركات. ولا تزال ولايات مثل إلينوي ونيفادا ويوتا تُصدر قوانين تُقيد أو تُحظر استخدام الذكاء الاصطناعي كاستبدال للعلاج النفسي المُرخص. وتم التواصل مع Character AI وMetta وOpenAI وReplika للحصول على تعليق، لكن لم تُصدر أي من الشركات توضيحات حتى الآن.