مشروع قانون كاليفورنيا لتنظيم روبوتات الدردشة الذكية يقترب من التصديق
California تخطو خطوة كبيرة نحو تنظيم الذكاء الاصطناعي بعد اجتياز مشروع القانون SB 243 من مجلس النواب والSenate بدعم bipartisan ويُعدّ أول قانون من نوعه في الولايات المتحدة يفرض متطلبات أمان على الدردشات الاصطناعية المخصصة للترفيه والدعم العاطفي. إذا وقّعه الحاكم غافين نوسم بحلول 12 أكتوبر فسيبدأ سريانه في 1 يناير 2026، مما يجعل كاليفورنيا أول ولاية تفرض على شركات الدردشة الاصطناعية تطبيق إجراءات وقائية وتحملها مسؤولية قانونية في حال فشل أدواتها في حماية المراهقين والمستخدمين الضعفاء. يهدف القانون تحديدًا إلى منع استخدام أنظمة الذكاء الاصطناعي التي تُقدّم ردودًا بشرية مُعدّلة وتعمل على تلبية الاحتياجات الاجتماعية، مثل تلك التي تُثير مواضيع الانتحار أو الإيذاء الذاتي أو المحتوى الجنسي. ويشترط القانون إرسال تنبيهات دورية للمستخدمين كل ثلاث ساعات خاصة بالقُصّر تذكّرهم بأنهم يتحدثون مع ذكاء اصطناعي وليس شخصًا حقيقيًا، وتحثهم على أخذ فترات راحة. كما يفرض على الشركات المُقدّمة لهذه الخدمة تقديم تقارير سنوية حول استخدامها وشفافيتها، وستبدأ هذه المتطلبات من 1 يوليو 2027، وتشمل شركات كبرى مثل OpenAI وCharacter.AI وReplika. يمنح القانون أيضًا الأفراد الحق في رفع دعوى قضائية ضد الشركات في حال تضررهم من انتهاكات القانون، ويتضمن حقًا في الحصول على تعويض يصل إلى 1000 دولار لكل انتهاك، بالإضافة إلى تعويضات عن التكاليف القانونية. اكتسب المشروع زخمًا في الكونغرس كاليفورنيا بعد وفاة المراهق آدم رين الذي انتحر بعد محادثات طويلة مع ChatGPT تناولت خطط الانتحار، إضافة إلى تسريبات تُظهر أن شاتبات Meta سمح لها بالحديث بأسلوب رومانسي مع الأطفال. في الوقت نفسه، تتصاعد المراقبة الفيدرالية والولائية لحماية الأطفال من مخاطر الذكاء الاصطناعي. تُعدّ لجنة التجارة الفيدرالية تحقيقات مقبلة حول تأثير الشاتبات على الصحة النفسية للأطفال، بينما أطلق مسؤولون مثل المدعي العام لتكساس كين بكسون تحقيقات ضد Meta وCharacter.AI، متهمينها بتضليل الأطفال بادعاءات حول الدعم النفسي. كذلك أطلق كل من السناتور جوش هاولي وسيناتور إد ماركي تحقيقات منفصلة ضد Meta. السيناتور ستيف باديلا أكد أن الضرر المحتمل كبير لذا يجب التحرك بسرعة، مشيرًا إلى أهمية توعية المستخدمين، وربطهم بالخدمات المتخصصة عند الإفصاح عن أعراض نفسية خطيرة، وضمان عدم تعرضهم لمحتوى غير لائق. كما دعا إلى مشاركة بيانات عن عدد المرات التي تُحيل فيها الشركات المستخدمين إلى خدمات الطوارئ، لفهم حجم المشكلة قبل حدوث الكوارث. تم تقليل بعض بنود القانون الأصلية بسبب ضغوط من شركات التكنولوجيا، حيث تمت إزالة شرط منع استخدام آليات "المكافآت المتغيرة" التي تُحفّز الاستخدام المفرط، مثل إرسال رسائل خاصة أو إمكانية تطوير شخصيات نادرة، والتي يُعتبرها نشطاء خطيرة من حيث الإدمان. كما أُزيلت أحكام تتطلب تتبع ونشر تقارير حول تكرار مبادرات الشاتبات لمحادثات الانتحار. السيناتور جوش بيكر وصف القانون بأنه يوازن بين التصدي للخطر وتجنب فرض متطلبات غير واقعية تقنيًا أو إداريًا. يأتي هذا التحرك في وقت تُنفق فيه شركات سيليكون فالي ملايين الدولارات عبر لجان سياسية داعمة للذكاء الاصطناعي لدعم مرشحين يُفضلون نهجًا خفيفًا في التنظيم. كما تُناقش كاليفورنيا مشروع قانون آخر هو SB 53 الذي يفرض شفافية شاملة، لكنه يواجه معارضة شديدة من OpenAI وMeta وGoogle وأمازون، فيما دعمه فقط Anthropic. باديلا أكد أن الابتكار والتنظيم ليسا متناقضين، بل يمكن الجمع بينهما لضمان أمان المستخدمين مع الحفاظ على الفوائد المُحتملة للذكاء الاصطناعي.
