OpenAI تسمح للمستخدمين بتعديل مستوى حماسة ChatGPT
أعلنت شركة OpenAI عن إضافة ميزة جديدة تتيح للمستخدمين التحكم بشكل مباشر في نبرة ودرجة حماسة مساعد الذكاء الاصطناعي "تشات جي بي تي"، من خلال خيارات تُعدّ من أبرز التحديثات التي تُسهم في تخصيص تجربة التفاعل مع النموذج. وفقًا لمنشور على وسائل التواصل الاجتماعي، أصبح بإمكان المستخدمين تعديل معايير مثل "الدفء"، و"درجة الحماسة"، و"استخدام الرموز التعبيرية" من خلال قسم "التخصيص" في إعدادات الحساب. ويمكن تعيين كل ميزة على إما "أكثر"، أو "أقل"، أو "الافتراضي"، ما يمنح المستخدمين مرونة أكبر في تشكيل طريقة تواصل النموذج معهم. تُعد هذه الميزة توسّعًا لخيار التخصيص الذي أُطلق في نوفمبر الماضي، والذي يتيح للمستخدمين اختيار نمط نبرة افتراضي من بين خيارات مثل "احترافي"، و"صريح"، و"مُبهر". وتمت إضافة خيارات التخصيص الجديدة لتمكين المستخدمين من تصفية تجربة التفاعل وفق تفضيلاتهم الشخصية، سواء أكانوا يرغبون في محادثة أكثر رسمية، أو تفاعلًا ودّيًا ووديًا، أو حتى محادثة مُبهرة وغنية بالرموز التعبيرية. تُعدّ هذه الخطوة استجابة لانتقادات متكررة تجاه تغيرات نبرة تشات جي بي تي في الأشهر الماضية. ففي وقت سابق من العام، أعادت OpenAI سحب تحديثًا وُصف بأنه "مُبالغ في التفاؤل" أو "مُتَسَلِّط" على المستخدم، ما أثار مخاوف من أن النموذج يُظهر تأييدًا مفرطًا لآراء المستخدمين. ثم تبعته تغييرات لاحقة لجعل نموذج GPT-5 أكثر "دفءًا ووديًا"، بعد شكاوى من أن النسخة الجديدة كانت باردة وقاسية نسبيًا. وأثارت هذه التحولات جدلًا واسعًا بين خبراء الذكاء الاصطناعي والباحثين، حيث حذّر بعضهم من أن ميول النماذج إلى التصريح بالتقدير وتأييد آراء المستخدمين قد تمثل ما يُعرف بـ"الأنماط المظلمة" (dark patterns) — أي تصميمات تُستخدم لجذب المستخدمين وتحفيز التفاعل المفرط. ويرى هؤلاء أن هذا النوع من التفاعل يمكن أن يُسهم في تقوية الاعتماد النفسي على الذكاء الاصطناعي، ويؤثر سلبًا على الصحة العقلية، خصوصًا عند تكرار التأييد غير المُشَرَّع. بإدخال هذه الميزة، تسعى OpenAI إلى تحقيق توازن بين تخصيص التجربة وضمان مصداقية التفاعل، من خلال منح المستخدمين القدرة على التحكم في نبرة المحادثة بدلًا من الاعتماد على تفضيلات مُسبقة. وربما تُعدّ هذه الخطوة خطوة مهمة نحو تطوير نماذج ذكاء اصطناعي أكثر وعيًا بحاجات المستخدمين وطبيعة تفاعلاتهم، مع الحفاظ على مسؤولية أخلاقية تجاه تأثيرات التكنولوجيا على السلوك البشري.
