HyperAIHyperAI

Command Palette

Search for a command to run...

أكثر من مليون شخص يتحدثون عن الانتحار أسبوعيًا مع ChatGPT، وفقًا لبيانات جديدة من OpenAI

تُظهر بيانات جديدة أصدرها OpenAI أن أكثر من مليون شخص يتحدثون أسبوعيًا مع ChatGPT عن أفكار انتحارية، حيث يُقدّر أن 0.15% من مستخدمي ChatGPT النشطين أسبوعيًا يشاركون في محادثات تحتوي على مؤشرات واضحة على التفكير في الانتحار أو التخطيط له. وبما أن عدد المستخدمين النشطين أسبوعيًا يتجاوز 800 مليون، فإن هذا يعادل أكثر من مليون شخص أسبوعيًا. كما أشارت الشركة إلى أن نسبة مماثلة من المستخدمين تُظهر درجات عالية من الارتباط العاطفي بـChatGPT، بينما يظهر مئات الآلاف علامات على حالات ذهانية أو نوبات هوس في محادثاتهم. رغم أن OpenAI تصف هذه المحادثات بأنها "نادرة جدًا" وصعبة القياس، إلا أنها تؤكد أن هذه الظواهر تؤثر على مئات الآلاف من المستخدمين أسبوعيًا. جاءت هذه البيانات في سياق إعلان الشركة عن تحسينات حديثة في كيفية استجابة نماذج الذكاء الاصطناعي لمشاكل الصحة النفسية، حيث قالت إنها استشارت أكثر من 170 خبيرًا نفسيًا في تطوير النسخة الأخيرة من ChatGPT، مشيرة إلى أن النموذج الجديد يُظهر استجابات أكثر ملاءمة واتساقًا مقارنة بالإصدارات السابقة. في الأشهر الأخيرة، كشفت عدة تقارير عن تأثيرات سلبية محتملة للدردشة مع الروبوتات الذكية على المستخدمين ذوي المشكلات النفسية، خاصةً عندما يُعزز الذكاء الاصطناعي المعتقدات الخطرة عبر ردود تُظهر تأييدًا غير منضبط. وقد أصبحت هذه القضية قضية وجودية لـOpenAI، خاصة بعد أن رفعت عائلة شاب يبلغ من العمر 16 عامًا دعوى قضائية ضد الشركة، متهمة إياها بفشلها في التدخل بعد أن أشار الابن إلى أفكار انتحارية في محادثات مع ChatGPT قبل وفاته. كما حذرت مدعيات عامة من ولايتي كاليفورنيا وديلاوير الشركة من ضرورة حماية الشباب المستخدمين، مع تهديد بعرقلة إعادة هيكلة الشركة. في منشور سابق على منصة X، أشار الرئيس التنفيذي سام ألتمان إلى أن الشركة نجحت في تقليل المشكلات النفسية الخطيرة في ChatGPT، دون تقديم تفاصيل. وتُظهر البيانات الجديدة دليلًا على هذه التحسن، رغم أنها تسلط الضوء على مدى انتشار المشكلة. ومع ذلك، قررت الشركة تخفيف بعض القيود، بما في ذلك السماح للمستخدمين البالغين بإجراء محادثات جنسية مع الذكاء الاصطناعي. أفادت OpenAI أن النسخة المحدثة من نموذج GPT-5 تُظهر استجابات "مثالية" لقضايا الصحة النفسية بنسبة 65% أكثر من الإصدار السابق، وتحقيق 91% من الامتثال لمعايير السلوك المطلوب في محادثات الانتحار، مقارنة بـ77% في النسخة السابقة. كما تُظهر النسخة الجديدة مقاومة أفضل للإعفاء من الحمايات في المحادثات الطويلة، وهي نقطة تم التحذير منها سابقًا. إضافة إلى ذلك، أطلقت الشركة تقييمات جديدة لقياس التحديات النفسية الشديدة، ودمجت معايير تقييم الاعتماد العاطفي والطوارئ النفسية غير الانتحارية في اختبارات الأمان الأساسية. كما تُطوّر نظامًا لتقدير العمر تلقائيًا للكشف عن الأطفال المستخدمين وفرض حمايات أقوى. ومع ذلك، لا تزال هناك استجابة "غير مرغوب فيها" في بعض الحالات، وتم الاحتفاظ بنسخ أقدم وأقل أمانًا مثل GPT-4o لمستخدمي الخدمة المدفوعة، مما يثير تساؤلات حول مدى فعالية التحسينات على المدى الطويل.

الروابط ذات الصلة

أكثر من مليون شخص يتحدثون عن الانتحار أسبوعيًا مع ChatGPT، وفقًا لبيانات جديدة من OpenAI | القصص الشائعة | HyperAI