OpenAI وAnthropic تُطلقان ميزات جديدة للكشف عن قصر السن في المستخدمين
تسعى شركتا OpenAI وAnthropic إلى تعزيز حماية المراهقين من خلال تطوير أدوات ذكية تُقدّر عمر المستخدمين أثناء التفاعل مع مساعدات الذكاء الاصطناعي. في خطوة جديدة نحو تحسين السلامة الرقمية، أعلنت OpenAI عن تحديثات جوهرية في إرشادات نموذج ChatGPT، تُركّز على حماية الفئة العمرية بين 13 و17 عامًا. وستُطبّق هذه التحديثات أربع مبادئ جديدة تُوجّه سلوك النموذج، أبرزها تفضيل السلامة النفسية والجسدية للمراهقين، حتى في حال تعارضها مع مبادئ أخرى مثل "الحرية الفكرية القصوى". وستُعدّ ChatGPT الآن المراهقين بأسلوب يُظهر "الدفء والاحترام"، بدلًا من التقليل من شأنهم أو معاملتهم كبالغين. كما سيُشجّع النموذج على بناء علاقات واقعية خارج الإنترنت، ويُوضّح بوضوح التوقعات في التفاعل مع المستخدمين الصغار. في حال اكتشاف مخاطر حقيقية، مثل التفكير في الانتحار أو الإيذاء الذاتي، سيُحذّر النموذج المستخدم من الاتصال بخدمات الطوارئ أو مراكز الدعم النفسي. ومن بين هذه التحديثات، تُجري OpenAI تجارب مبكرة على نموذج يُقدّر العمر بناءً على نمط التفاعل، ويُفعّل تلقائيًا إجراءات الحماية عند احتمال أن يكون المستخدم قاصرًا. كما سيُتاح للبالغين التحقق من هويتهم في حال تم تصنيفهم خطأً كمراهقين. من جهتها، تعمل Anthropic على تطوير نظام مُتطور يُحلّل المحادثات للكشف عن "دلائل غير مباشرة" تشير إلى أن المستخدم قد يكون قاصرًا، وذلك خلال التفاعل مع مساعد Claude. وعند التأكد من أن الحساب ينتمي إلى شخص دون 18 عامًا، سيتم تعطيله تلقائيًا. كما تُشجّع الشركة المستخدمين على الإفصاح عن سنهم عند بدء المحادثة، وتُعدّ إجراءات تدريبية مخصصة لتعامل النموذج مع مواقف حساسة مثل الانتحار أو الإيذاء الذاتي. وأشارت Anthropic إلى تقدّم ملحوظ في تقليل ظاهرة "الاستجابة التلقائية المفرطة" أو ما يُعرف بـ"السُّخْمَة" (sycophancy)، حيث أظهر نموذجها الجديد "Haiku 4.5" أفضل أداء في هذا المجال، حيث تمكّن من تصحيح سلوكه التلقائي 37% من المرات. ومع ذلك، أقرّت الشركة بأن هناك مجالًا واسعًا للتحسين، مشيرة إلى التوازن الدقيق بين لطف النموذج وتجنب التأييد الأعمى لأفكار ضارة.
