HyperAIHyperAI

Command Palette

Search for a command to run...

ChatGPT-5.1 تُقدّم 7 شخصيات جديدة: كيف تختلف إجابات النماذج على نفس الأسئلة؟

أطلقت شركة OpenAI نسخة جديدة من نموذجها الرئيسي ChatGPT، تُعرف بـ GPT-5.1، والتي تقدم سبعة شخصيات مسبقة التخصيص تتيح للمستخدمين تغيير أسلوب التفاعل مع الذكاء الاصطناعي. هذه الشخصيات تشمل: الاحترافي، الودي، الصريح، الغريب، الفعّال، المُتَعَلِّم، والساخر. جاءت هذه الميزة استجابة لانتقادات وُجهت لـ GPT-5، الذي وُصف من قبل مستخدمين بأنه "مُبْتَلَع" مقارنة بـ GPT-4o، ما دفع الرئيس التنفيذي سام ألتمان إلى وعد بتحسين التخصيص وتمكين المستخدمين من العودة إلى النماذج القديمة. في تجربة ميدانية، تم اختبار كل شخصية بثلاثة أسئلة تزداد صعوبتها. في السؤال الأول، المتعلق بآلية عمل السيارات الكهربائية، أظهرت الشخصية الاحترافية إجابة مطولة مليئة بالتقنيات، مما أربك المستخدم. في المقابل، اخترقت الشخصيات مثل "الصريح" و"الودي" و"الفعّال" بجواب موجز وواضح، مع دعوات لاستمرار الحوار. أما "الغريب" و"الساخر"، فجذبا الانتباه بأسلوب ممتع: ابتدأ "الغريب" بعبارة مجازية ورسومات تعبيرية، بينما بدأ "الساخر" بتأييد ساخر لاختيار الكهرباء، مُقارنًا بين سرعة السيارة الكهربائية وضجيج السيارات التقليدية. في تحليل فيلم "The Substance" (2024)، تباينت الأسلوب أكثر من المحتوى. جميع الشخصيات وافقت على أن الفيلم نقد اجتماعي حاد لاستغلال الجسد النسائي، مع انتقادات طفيفة للجزء الثالث. لكن كل شخصية أظهرت هويتها بوضوح: "المُتَعَلِّم" بدأ بـ"أول أفكاري (نعم، النُّدُّ فيّ متحمس)", و"الساخر" اعترف بـ"إحباطه" من بعض المشاهد، لكنه أشاد بجرأة الفيلم. في تجربة المعضلة الأخلاقية "مشكلة القطار"، اختارت جميع الشخصيات سحب المفتاح لإنقاذ خمسة على حساب واحد، بأساس فلسفي يُعرف بـ"الاستخدامية". لكن التعبير عن هذا القرار اختلف: "الصريح" أقرّ بـ"القلق الأخلاقي" الناتج عن اتخاذ قرار قاتل، بينما "الساخر" قال: "سأسحب المفتاح، ثم سأحتاج إلى تنظيف ذاكرتي بعد ذلك". النتيجة أن التخصيص لا يغير المعلومة أو الحقيقة، بل يُغيّر طريقة عرضها. المستخدمون يميلون إلى تقبّل المعلومات من الشخصيات التي يحبونها، مثل "الغريب" و"الساخر"، ويصبحون أقل تصدّعاً عند مواجهة نزاعات فكرية. وبحسب البروفيسور ماتياس شوتس من معهد تافتس للذكاء الاصطناعي، فإن هذا التخصيص يعزز التفاعل العاطفي مع الذكاء الاصطناعي، ما قد يُوهم المستخدمين بوجود وعي أو نية حقيقية، رغم أن النموذج لا يمتلك ذلك، بل يُقلّد فقط أنماط التفكير والكلام بناءً على تحليل أنماط لغوية. هذا التفاعل المُحسّن قد يُصبح أداة قوية في التفاعل البشري مع التكنولوجيا، لكنه يطرح تساؤلات أخلاقية حول التلاعب النفسي، وحدود التفاعل مع كائنات لا تملك وعيًا حقيقيًا.

الروابط ذات الصلة

ChatGPT-5.1 تُقدّم 7 شخصيات جديدة: كيف تختلف إجابات النماذج على نفس الأسئلة؟ | القصص الشائعة | HyperAI