لماذا تُحدث روبوتات الدردشة الذكية أخطاء وهمية، وفقًا باحثي OpenAI
أظهرت دراسة جديدة أجرتها فرق بحثية في OpenAI أن السبب الجوهري وراء "الهلوسة" في نماذج الذكاء الاصطناعي الحديثة — وهي ظاهرة تُظهر فيها النماذج توليد معلومات خاطئة على أنها حقيقة — يكمن في طريقة تدريب هذه النماذج، لا في عيوبها التقنية. وفقاً للبحث، فإن النماذج الكبيرة للغة تُدرّب على تفضيل "التخمين" حتى عند عدم اليقين، لأن التقييمات المستخدمة في التدريب تُعاقب على التردد أو الامتناع عن الإجابة، وتُكافئ بدلًا من ذلك الإجابات المُقدّمة بثقة، حتى لو كانت خاطئة. في جوهر الأمر، تُشجّع هذه النماذج على "التمثيل" — أي تقديم إجابات مُقنعة بغض النظر عن صحتها — لأنها تُدرّب على أن تكون "ممتازة في الامتحانات"، حيث تُقاس الأداء بدرجة الدقة فقط، دون اعتبار لمستوى الثقة أو الوعي بالغموض. ونتيجة لذلك، تصبح النماذج في حالة دائمة من "وضع الامتحان"، تُقدّم إجابات بثقة مطلقة، حتى عندما لا تملك معلومات كافية، مما يُنتج ما يُعرف بـ"الهلوسة" — إجابات مبنية على خيال أو تحيّزات، لا على واقع موثوق. وقد أشارت الدراسة إلى أن بعض النماذج، مثل نماذج Claude من شركة Anthropic، تظهر مستوى أعلى من الوعي بالشك، وتُفضّل الامتناع عن الإجابة عند عدم اليقين، ما يقلل من احتمال الهلوسة. لكن هذا السلوك، رغم فائدته، قد يُقلّل من فعالية النموذج في بعض المهام، حيث يُعتبر رفض الإجابة "مُربكاً" أو غير عملي من وجهة نظر المستخدم. الباحثون في OpenAI يرون أن المشكلة ليست في نماذج الذكاء الاصطناعي نفسها، بل في النظام التقييمي الذي يُستخدم لتدريبها. "النماذج لا تتعلم أن تكون دقيقة، بل تتعلم أن تكون ناجحة في الامتحانات"، كما كتبوا. ويشيرون إلى أن البشر يتعلمون التعبير عن عدم اليقين من خلال التجربة الحياتية، وليس من خلال اختبارات مدرسية، في حين أن النماذج تُدرّب على نماذج تُقاس فيها الدقة فقط، مما يخلق فجوة بين الأداء في البيئة المُصطنعة والواقع الحقيقي، حيث الغموض والتشويش هما القاعدة، وليس الاستقرار. الحل، وفقاً للدراسة، لا يكمن في تطوير نماذج أكثر تعقيداً، بل في إعادة تصميم معايير التقييم. ويجب أن تُعدّل المعايير الحالية لتعاقب التخمين، وتُكافئ الامتناع عن الإجابة عند عدم اليقين. "إذا استمرت لوحة التقييم في مكافأة التخمين العشوائي، فسيستمر النموذج في تعلّم هذه السلوكيات"، كما أوضح فريق OpenAI في مدونة متعلقة بالدراسة. النتيجة: تحسين دقة نماذج الذكاء الاصطناعي لا يعتمد فقط على التعلم، بل على إعادة تفكير في كيفية قياسه. وعندما تُعدّل معايير التقييم لتُقدّر الصدق والاعتراف بالحدود، فإن النماذج ستكون أكثر موثوقية — وربما أكثر فائدة — في الاستخدامات الحقيقية.
