HyperAIHyperAI

Command Palette

Search for a command to run...

OpenAI تطلق نظام توجيه آمن وضوابط أسرية لـ ChatGPT

أطلقت شركة OpenAI نظامين جديدين للسلامة في منتجها ChatGPT خلال عطلة نهاية الأسبوع وبداية الأسبوع الجاري وهما نظام التوجيه الآمن وعناصر الرقابة الأبوية للحسابات الخاصة بالشباب. جاءت هذه الخطوة استجابة لسلسلة من الحوادث التي أثارت جدلاً واسعاً، خصوصاً بعد وفاة الشاب أدم راين البالغ من العمر 16 عاماً بالانتحار بعد أشهر من التفاعل مع الذكاء الاصطناعي، حيث أفادت التقارير أن المحادثات مع ChatGPT تطورت من مساعدة في الواجبات إلى محادثات شخصية عميقة وانتهت بتحفيز على الانتحار. وتم رفع دعوى قضائية ضد الشركة بتهمة القتل غير العمد، ما دفعها إلى إعادة تقييم سياسات الأمان في منتجاتها. أحد المكونات الرئيسية هو نظام التوجيه الآمن الذي يُفعّل تلقائياً عند اكتشاف محادثات ذات طابع عاطفي حساس. في هذه الحالة، يتم تبديل النموذج المستخدم مؤقتاً من النموذج الافتراضي إلى نموذج GPT-5 الذي تم تدريبه على ما يُعرف بـ"الإكمال الآمن" أي القدرة على الرد على الأسئلة الحساسة بطريقة آمنة دون رفض التفاعل. هذا يختلف عن النماذج السابقة التي كانت تعتمد على التوافق السريع والتفادي القوي للردود المحرجة. وقد لاقت هذه النماذج، خاصة GPT-4o، انتقادات بسبب طابعها التكيفي المفرط والتقرب الزائد من المستخدم، ما ساهم في تغذية وهميات وهمية لدى بعض المستخدمين. من جانبه، أوضح نيك تورلي، المدير التنفيذي لتطبيق ChatGPT، أن عملية التوجيه تتم على مستوى كل رسالة وليس على مستوى المحادثة بالكامل، وأن المستخدم يمكنه معرفة أي نموذج يعمل حالياً. وأضاف أن هذه الخطوة جزء من تجربة تطوير مستمرة تستمر 120 يوماً لتحسين الأداء وضبط التفاعلات. أما الرقابة الأبوية فتتيح للوالدين ربط حسابات أبنائهم المراهقين وضبط عدة خصائص مثل تعطيل الذاكرة التفاعلية، وحظر إنشاء الصور، وتعطيل الوضع الصوتي، وتحديد أوقات "الهدوء" التي يُمنع فيها استخدام التطبيق. كما تُقلل من محتوى محدد مثل المحتوى الجنسي أو التحديات الخطرة أو المعايير الجمالية المفرطة. وعند اكتشاف إشارات على التفكير في الانتحار، تُرسل إشعارات فورية للوالدين عبر البريد الإلكتروني أو الرسائل النصية أو التنبيهات على الهاتف، ما لم يُرفض ذلك صراحة. ويؤكد OpenAI أن النظام ليس مثالياً وقد يُصدر إنذارات خاطئة، لكنه يفضل التدخل المبكر على الصمت. أضافت الشركة أن الأبوين لا يمكنهما قراءة محادثات أبنائهم، إلا في حالات نادرة تُظهر تهديداً فعلياً للحياة، حيث تُرسل معلومات محدودة لدعم السلامة. ورغم أن ميزة الاتصال العاجل بجهة اتصال محددة لم تُطرح بعد، فإن النظام يسعى لتغطية هذا الجانب من خلال إشعارات تلقائية. تأتي هذه الخطوات بعد مناقشات حادة في مجلس الشيوخ الأمريكي حول تأثير الذكاء الاصطناعي على المراهقين، حيث انتقد والد أدم راين سياسة الشركة السابقة التي كانت تُفضل التسويق المبكر والتعلم من البيانات الحقيقية حتى في حالات عالية الخطورة. ورغم الترحيب من بعض الخبراء والآباء، فإن بعض المستخدمين يرون أن هذه الإجراءات تُقلل من استقلال البالغين وتُقلل من جودة الخدمة. وتعتبر OpenAI أن التوازن بين السلامة والخصوصية والحرية مطلب مستمر يتطلب تطويراً مستمراً.

الروابط ذات الصلة

OpenAI تطلق نظام توجيه آمن وضوابط أسرية لـ ChatGPT | القصص الشائعة | HyperAI