сенاتورات تتحرك لحظر روبوتات المحادثة المتطورة من الشركات الكبرى على الأطفال
في مبادرة تهدف إلى حماية الأطفال من التعرض لتقنيات الذكاء الاصطناعي التي قد تُستخدم بشكل غير مسؤول، تقدم عدد من Senators أمريكيين بمشروع قانون يُحظر استخدام الروبوتات التفاعلية التي تُصمم لتقديم الدعم العاطفي أو التفاعلات الاجتماعية للصغار، ما لم تُخضع لتدقيق صارم وضوابط صارمة. وتُعد هذه الخطوة استجابة لقلق متزايد بين الخبراء والمجتمعات الأسرية إزاء تطور "الروبوتات الشريكة" — أو ما يُعرف بـ"الروبوتات العاطفية" — التي تُصمم لتُحاكي العلاقات الإنسانية، وتُستخدم أحيانًا كأصدقاء افتراضيين للأطفال. وقد أثارت هذه التقنيات جدلًا واسعًا، خاصة بعد ظهور أدلة تشير إلى أن بعض هذه الروبوتات، التي تُطورها شركات كبرى مثل جوجل وآبل ومايكروسوفت، قادرة على جمع بيانات شخصية دقيقة، وتحليل سلوك الأطفال، وتقديم استجابات مُعدّة مسبقًا تُعزز الارتباط العاطفي، ما يثير مخاوف من استغلال هذه التفاعلات لاستهداف الأطفال بطرق غير أخلاقية أو تجارية. وأكدت مشرّعات ومسؤولون حكوميون أن هذه التكنولوجيا، رغم مكانتها المُعلَّقة كأداة تعليمية أو داعمة نفسيًا، قد تُستخدم بشكل غير مسؤول إذا لم تُخضع لرقابة صارمة. ودعت مبادرة القانون إلى فرض شروط صارمة على الشركات التي تُطور هذه الأنظمة، منها التزامها بالإفصاح الكامل عن كيفية جمع البيانات، وضمان عدم استخدامها لأغراض تسويقية أو تحليل سلوكيات مُستهدفة. كما يُشترط أن تكون هذه الروبوتات قابلة للإيقاف في أي وقت من قبل الوالدين، وأن تُصمم وفقًا لمبادئ حماية الخصوصية من البداية. وأثارت هذه المبادرة ردود فعل حادة من جانب شركات التكنولوجيا الكبرى، التي وصفت المشروع بأنه "مُفرط في التدخل" و"مُعَقِّد" و"يُعرقل الابتكار". واعتبرت الشركات أن هذه الروبوتات تُستخدم بطرق مسؤولية، وتساهم في دعم الأطفال ذوي الاحتياجات الخاصة أو المُعَانين من العزلة الاجتماعية، مشيرة إلى أن التدقيق المفرط قد يُبطئ من تطور حلول تكنولوجية مهمة. لكن المشرّعين يشددون على أن الحماية من الاستغلال لا تعني تقليل الابتكار، بل تعني ضمان أن يتطور هذا الابتكار في بيئة آمنة وشفافة. ويشيرون إلى أن قوانين حماية الأطفال من التهديدات الرقمية، مثل قانون حماية الخصوصية للأطفال (COPPA)، يجب أن تُطبّق على هذه التكنولوجيا الحديثة التي تتجاوز الأدوات التقليدية مثل التطبيقات أو الألعاب. ومن المتوقع أن تشهد المناقشات حول المشروع مواجهة حادة بين ممثلي الصناعة والجهات الرقابية، لكنه يُعد خطوة مهمة نحو تحديد حدود استخدام الذكاء الاصطناعي في مجالات حساسة مثل تربية الأطفال. ورغم التحديات، يرى البعض أن هذه المبادرة قد تُشكّل نموذجًا لتنظيم تكنولوجيا الذكاء الاصطناعي على مستوى عالمي، خاصة في ظل التوسع المتسارع لدمج هذه الأنظمة في حياتنا اليومية.
