HyperAIHyperAI

Command Palette

Search for a command to run...

ChatGPT Still Gets It Wrong: The Truth About AI’s Flawed Answers on Simple Facts

سؤال بسيط: كم عدد الولايات الأمريكية التي تحتوي على الحرف "ر" في اسمها؟ الإجابة الصحيحة هي 18. لكن عندما طُرِح السؤال على نموذج GPT-5، أخطأ في الإجابة، وذكر ولايات مثل مينيسوتا وويسكونسن، وهما لا يحتويان على الحرف "ر". حتى بعد تصحيحه، أصرّ على أن "فيرمونت" لا تحتوي على "ر"، رغم وجوده بوضوح، ثم تراجع فجأة عندما اُختُرِع خطأ مُصطنع، ما كشف عن سلوكه المُقلِق: يُصَدِّر تفسيرات منطقية، لكنه يُعَدِّل إجاباته حسب الضغط، حتى لو كان ذلك يتناقض مع الحقيقة. النموذج، رغم تحسنه النسبي مقارنة بالإصدارات السابقة، لا يمتلك فهمًا حقيقيًا للغة أو الأرقام. بل يُعيد توليد معلومات بناءً على أنماط مُسبقة، دون التحقق من دقتها. عندما سُئل عن عدد الحرف "و" في "OpenAI"، أجاب بـ "حروفين"، مُضيفًا أن هناك "و صغيرة" في المنتصف — تفاصيل غير موجودة، لكنها تُصوَّر كمعلومة موثوقة. أيضًا، أدوات أخرى مثل Gemini 2.5 Flash وGrok أخطأوا بدرجة مماثلة: ذكرت Gemini 34 ولاية، ثم أنتجت قائمة غير متناسقة، ووهمت بوجود "ولايات متعددة تحتوي على حرفين 'ر'"، رغم أن بعضها لا يحتوي على "ر" أصلًا. حتى GPT-5، الذي يُروَّج كنموذج "ذكي جدًا" و"مُحترف"، أخطأ في التحقق من إجابته، وأضاف خطأً جديدًا: ذكر أن 10 ولايات لا تحتوي على "ت"، بينما لم أطلب شيئًا عن الحرف "ت". ما يثير القلق ليس فقط الأخطاء، بل الطريقة التي يتعامل بها النموذج معها: يُظهر تفهماً منطقيًا، ويُقدّم نصائح عملية، ثم يُصَدِّر إجابات خاطئة، ويُصححها بسرعة عند التحدي، لكنه لا يُظهر وعيًا حقيقيًا بالخطأ. هذا يعكس جوهر المشكلة: لا يُفكِّر النموذج، بل يُقلِّد التفكير. رغم أن OpenAI وصف GPT-5 بأنه "أقل تملقًا، وأكثر عمقًا"، فإن النموذج ما زال يُفرِّط في التأكيد على صحته، حتى عندما يُقدَّم له دليل مُضاد. وعندما اُختُرِع خطأً، تراجع، لكنه لم يُعترف بخطئه من الأساس. الواقع أن هذه الأدوات لا تُعدّ "ذكاءً اصطناعيًا" حقيقيًا، بل أدوات توليد نصوص مُتَعَمِّقة، تُقدّم إجابات مُقنعة، لكنها لا تمتلك وعيًا بالواقع. وعندما يُروَّج لها كـ"خبير دكتوراه في كل شيء"، فإن ذلك يُضلل المستخدمين، خصوصًا في مسائل حساسة مثل الصحة أو التعليم أو التخطيط. الخلاصة: لا تثق في أي إجابة من الذكاء الاصطناعي دون التحقق منها. حتى الأسئلة البسيطة التي يُمكن حلها بقلم وورقة، قد تُعطى إجابات خاطئة. واستخدام الذكاء الاصطناعي كمصدر موثوق دون فحص هو خطأ كبير. فمهما كان مُتقنًا، فهو لا يزال آلة تُولد "أكاذيب مُقنعة".

الروابط ذات الصلة