HyperAIHyperAI

Command Palette

Search for a command to run...

دراسة: ChatGPT يفشل في أسئلة علمية صح وخطأ

كشفت دراسة حديثة أن نموذج الذكاء الاصطناعي "تشات جي بي تي" قد أظهر ضعفًا ملحوظًا في تقييم الحقائق العلمية. قادت الدراسة الأستاذ ميسوت تشيك من جامعة ولاية واشنطن، حيث قام هو وزملاؤه باختبار دقة النموذج من خلال تغذيته بنظريات فرضية مستمدة من أبحاث علمية منشورة، وطلبوا منه تحديد ما إذا كانت هذه التصريحات صحيحة أم خاطئة بناءً على الأدلة. شملت التجربة أكثر من 700 فرضية علمية، وتم إعادة طرح كل سؤال على النموذج عشرة مرات لضمان التحقق من ثبات النتائج وتقييم التذبذب في الأداء. أظهرت النتائج أن النموذج فشل في تقييم الدقة العلمية بشكل موثوق، حيث استحق درجة "دال" (D) في اختبار الحقائق العلمية. لم يكن الفشل محصورًا في سوء الفهم، بل شمل حالات من التناقض الداخلي، حيث أحيانًا يصنف العبارة الصحيحة على أنها خاطئة، وأحيانًا أخرى يؤكد صحة فرضية تم دحضها في البحث الأصلي. يشير الباحثون إلى أن تكرار الإجابة بنفس السؤال عشر مرات كشف عن عدم اتساق كبير في استجابة النموذج، حيث لم تكن الإجابات موحدة في كثير من الأحيان. هذا التناقض يثير مخاوف جدية حول اعتماد أدوات الذكاء الاصطناعي على المعلومات العلمية، خاصة في المجالات التي تتطلب دقة عالية مثل الطب والعلوم الصرفة. على الرغم من أن النموذج يمتلك قاعدة معرفية ضخمة، إلا أن قدرته على استنتاج الحقيقة المنطقية من البيانات البحثية لا تزال دون المستوى المطلوب للثقة الكاملة. تُظهر هذه الدراسة أن نموذج "تشات جي بي تي"، رغم قوته في توليد النصوص والردود العامة، لا يزال يفتقر إلى المهارات التحليلية العميقة اللازمة للنقد العلمي الصريح. وقد حذرت الدراسة من استخدام هذه الأدوات كبديل للفحص البشري الدقيق عند التعامل مع الفرضيات البحثية. وتؤكد الحاجة إلى تطوير خوارزميات تركز بشكل أكبر على التحقق من الحقائق ومنطق الاستدلال قبل تقديم الإجابات النهائية، لتجنب نشر المعلومات المغلوطة التي قد تؤثر على مسار البحث العلمي أو التطبيقات العملية. في الختام، تؤكد التجربة أن الذكاء الاصطناعي الحالي لم يعد جاهزًا ليحاكي قدرة الباحث البشري في التحقق من صحة النظريات العلمية بدقة، مما يستدعي الحذر الشديد عند الاعتماد عليه في هذا المجال.

الروابط ذات الصلة

دراسة: ChatGPT يفشل في أسئلة علمية صح وخطأ | القصص الشائعة | HyperAI