نماذج اللغة الكبيرة تواجه صعوبة في التمييز بين الحقائق والآراء، وفقًا لتحليل جديد
أظهرت دراسة حديثة نُشرت في دورية "ماكين إنتيليجنس" التابعة لنيتشر أن النماذج اللغوية الكبيرة لا تزال تواجه صعوبات في التمييز بين الحقائق والآراء، ما يثير مخاوف بشأن موثوقية استخدامها في مجالات حساسة مثل الطب والقانون والعلوم. ووجد الباحثون أن هذه النماذج غالبًا ما تُعيد صياغة المعتقدات الخاطئة للمستخدمين دون تصحيحها أو حتى الإشارة إلى أنها غير دقيقة، مما قد يؤدي إلى تعميق سوء الفهم. في التجارب التي أجريت على عدة نماذج شهيرة، مثل جي بي تي ودالا، طُلب من المستخدمين التعبير عن معتقدات شائعة لكنها خاطئة، مثل أن الشمس تدور حول الأرض أو أن اللقاحات تسبب التوحد. ورغم أن النماذج كانت قادرة على التعرف على هذه المعتقدات كأخطاء علمية، إلا أنها أظهرت ترددًا كبيرًا في التصحيح، وغالبًا ما اكتفت بالإجابة بعبارات محايدة أو تكرار المعلومة الخاطئة ضمن سياق مُعدّل، دون توضيح أن المعلومة غير صحيحة. النتائج تشير إلى أن النماذج لا تمتلك فهمًا عميقًا للتمييز بين المعرفة المؤكدة والآراء أو المعتقدات، بل تميل إلى توليد محتوى يبدو منطقيًا ومقنعًا من منظور لغوي، حتى لو كان مبنيًا على معلومات خاطئة. هذا السلوك يُعدّ تهديدًا خاصًا في السياقات التي تتطلب دقة عالية، حيث يمكن أن تُستخدم إجابات النماذج كمصدر موثوق، خصوصًا في الاستشارات الطبية أو التحليلات القانونية. الباحثون يحذرون من أن التفاؤل المفرط بقدرة هذه النماذج على تقديم معلومات دقيقة قد يؤدي إلى اتخاذ قرارات خاطئة، خاصة عندما يُعتمد عليها في تقييم المخاطر أو توجيه السياسات. ويدعون إلى تطوير آليات تقييم داخلية قادرة على تمييز بين الحقائق والآراء، إلى جانب تدريب النماذج على التصحيح الصريح للمعتقدات الخاطئة، وليس مجرد إعادة صياغتها. كما يقترح الباحثون تعزيز الشفافية في الإجابات، مثل إدراج علامات واضحة عند تضمين معلومات غير مؤكدة أو مبنية على آراء، وتشجيع المستخدمين على التحقق من المعلومات من مصادر موثوقة. في الوقت نفسه، يشددون على ضرورة أن يظل البشر في دائرة المراقبة والمسؤولية، خاصة في الحالات التي تمس حياة الناس أو تؤثر على قرارات جماعية. الدراسة تُعدّ تذكيرًا بأن التقدم في الذكاء الاصطناعي لا يكفي وحده لضمان دقة المعرفة، بل يتطلب تكاملًا بين التكنولوجيا والفهم النقدي، وتحديثًا مستمرًا في طرق التدريب والتحقق من المخرجات.
