HyperAIHyperAI

Command Palette

Search for a command to run...

الصين تُعدّل قواعد استخدام سجلات المحادثات لتدريب الذكاء الاصطناعي بطلب موافقة صريحة من المستخدمين

تُعدّ الصين خطوة جديدة لتعزيز الرقابة على استخدام سجلات المحادثات في تدريب نماذج الذكاء الاصطناعي، من خلال اقتراح قواعد جديدة تُلزم شركات الذكاء الاصطناعي بالحصول على موافقة صريحة من المستخدمين قبل استخدام محادثاتهم في تدريب النماذج. أعلنت الإدارة الوطنية للشبكة الصينية (CAC) عن مشروع قواعد جديدة، تهدف إلى ضمان سلامة وحماية خدمات الذكاء الاصطناعي التفاعلية التي تشبه البشر، مثل الدردشة مع الروبوتات أو الشراكات الافتراضية. وتؤكد الإدارة أن الصين تشجع الابتكار في هذا المجال، لكنها تربط ذلك بإجراءات رقابة حذرة وتصنيفية لمنع الاستخدام غير المسؤول أو فقدان السيطرة على هذه التقنيات. وفقًا للمشروع، يجب على المنصات إعلام المستخدمين بأنهم يتفاعلون مع ذكاء اصطناعي، وتمكينهم من الوصول إلى سجل محادثاتهم أو حذفه. كما يشترط استخدام البيانات في تدريب النماذج أو مشاركتها مع أطراف ثالثة موافقة صريحة من المستخدم. وفي حالة المراهقين، يجب الحصول على موافقة ولي الأمر، مع منحه الحق في طلب حذف سجلات محادثات الابن. وستُفتح القواعد للاستشارة العامة حتى نهاية يناير. يُنظر إلى هذه الخطوة من قبل خبراء كمزيج من التوازن بين دعم الابتكار وضمان السلامة. وحذّر ليان جي سو، الخبير الرئيسي في شركة أومديا، من أن القيود قد تُبطئ تطور نماذج الدردشة، خصوصًا في سياق التعلم القائم على التغذية الراجعة البشرية، التي تُعدّ حجر الزاوية في تحسين دقة وواقعية المحادثات. لكنه أشار إلى أن النظام الصيني يمتلك مصادر بيانات واسعة، بما في ذلك بيانات عامة وخصوصية، ما يقلل من التأثير السلبي المحتمل. من جهتها، رأت وى سون، خبيرة الذكاء الاصطناعي في شركة كاونتيربوينت ريسيرش، أن هذه القواعد لا تُعدّ عائقًا، بل "إشارات توجيهية" تؤكد أولوية حماية المستخدمين وشفافية ممارسات جمع البيانات. وترى أن النصوص تُشجع المطورين على توسيع استخدام الذكاء الاصطناعي البشري في مجالات مفيدة، مثل نشر الثقافة وتقديم دعم نفسي لذوي الشيخوخة، في ظل تزايد أعداد كبار السن في الصين. تأتي هذه الخطوة في سياق مخاوف عالمية متزايدة حول كيفية تعامل شركات التكنولوجيا مع المحادثات الشخصية. ففي أغسطس، كشفت تقارير أن عمالًا متعاقدين مع شركات مثل ميتا يُسمح لهم بقراءة محادثات المستخدمين مع الذكاء الاصطناعي، بما يشمل محتوى حساسًا يُشبه جلسات العلاج النفسي أو محادثات عاطفية. ورغم أن ميتا تؤكد امتلاكها سياسات صارمة لحماية البيانات، فإن مخاوف الخصوصية تظل قائمة. كما أشار مهندس في جوجل إلى أن المستخدمين يجب أن يحذروا من مشاركة معلومات شخصية حساسة، لتفادي انتهاكها من قبل جهات خبيثة.

الروابط ذات الصلة