senators يقترحون حظر استخدام محادثات الذكاء الاصطناعي على المراهقين
Senators Josh Hawley (R-MO) وريتشارد بلومنتال (D-CT) قدّما مشروع قانون جديد يُعرف بـ"قانون حماية الأطفال من التكنولوجيا الاصطناعية" (GUARD Act)، يهدف إلى منع المراهقين تحت سن 18 من استخدام مساعدات الذكاء الاصطناعي التفاعلية مثل المحادثات النصية. يأتي هذا المقترح في أعقاب اجتماع عقد في مجلس الشيوخ نُظِر فيه إلى المخاطر التي قد تشكلها هذه الأنظمة على صحة الأطفال النفسية والسلوكية، خاصةً مع تزايد استخدامها في المدارس والمنصات الاجتماعية. وفقًا للقانون، سيُطلب من شركات الذكاء الاصطناعي التحقق من سن المستخدمين قبل السماح لهم بالوصول إلى مساعدات المحادثة. وستُستخدم وسائل مثل رفع وثائق هوية رسمية أو إجراء مسح وجوه رقمي، بحسب ما يُعد "طريقة معقولة" لتأكيد الهوية. كما يشترط القانون أن تُظهر المحادثات الذكية بوضوح أنها ليست بشرًا، من خلال إعلان تكراري كل 30 دقيقة، إضافة إلى تضمين إجراءات وقائية تمنعها من التظاهر بالبشرية، في خطوة تُشبه ما نُفذ في قانون أُقر حديثًا في كاليفورنيا. ويُحظر بموجب القانون تشغيل أي محادثة ذكية تُنتج محتوى جنسيًا يستهدف القاصرين، أو تُشجع على الانتحار، مع فرض عقوبات جنائية ومدنية على الشركات التي تنتهك هذه القواعد. ووصف بلومنتال مشروع القانون بأنه "خطوة حاسمة لوضع حدّ لاستغلال الذكاء الاصطناعي في التلاعب بالأطفال"، مشددًا على أن شركات التكنولوجيا الكبرى لم تُثبت ثقتها في مجال حماية الأطفال، خصوصًا عندما تُفضّل الربح على السلامة. القانون يأتي في سياق تزايد التحذيرات من تأثيرات الذكاء الاصطناعي على النمو النفسي والاجتماعي للمراهقين، لا سيما بعد تسريبات حول حالات ارتباط بعض المراهقين بمساعدات ذكية تُظهر سلوكيات مُضللة أو مُحتملة التأثير السلبي على صحتهم العقلية. وقد لاقت المبادرات المشابهة، مثل القانون الذي أقرته كاليفورنيا، تفاعلاً واسعًا، خاصةً بعد تصريح سام ألتمان، رئيس تشات جي بي تي، بأن النظام سيُوقف الحديث عن الانتحار مع المراهقين في المستقبل. رغم دعم المبادرة من قبل مجموعات حماية الأطفال وخبراء في السلامة الرقمية، تبقى التحديات التقنية والخاصة بالخصوصية موضع نقاش. فكيف يمكن التحقق من العمر بدقة دون انتهاك الخصوصية؟ وهل ستمسّ هذه القيود قدرة المراهقين على الاستفادة من أدوات تعليمية مفيدة؟ الآن، يُنظر إلى هذا القانون كجزء من حملة أوسع لتنظيم الذكاء الاصطناعي، مع تأكيد أن الحماية لا يمكن أن تعتمد فقط على المبادرات التطوعية من الشركات، بل تتطلب تشريعات صارمة تُفرض على الجميع.
