HyperAIHyperAI

Command Palette

Search for a command to run...

تقرير بريطاني يكشف انتشار استخدام الذكاء الاصطناعي التوليدي في تقييم جودة الأبحاث الجامعية

تُظهر تقارير حديثة نُشرت بقيادة جامعة بريستول أن استخدام الذكاء الاصطناعي التوليدي (GenAI) في تقييم جودة البحث الجامعي بدأ ينتشر في جامعات المملكة المتحدة، رغم تراكم مخاوف بين الأكاديميين حول مصداقيته وتأثيره على العدالة والشفافية. يُعدّ نظام التقييم الوطني للبحث في الجامعات، المعروف بـ"إطار التميز البحثي" (REF)، الأداة الأساسية لتوزيع نحو 2 مليار جنيه إسترليني سنويًا من التمويل العام، ويُعدّ من أكثر الأنظمة تكلفة، حيث بلغت تكاليف REF2021 حوالي 471 مليون جنيه، مع متوسط 3 ملايين جنيه لكل جامعة مشاركة، وتتوقع زيادة كبيرة في تكاليف REF2029. كشف التقرير، الذي شمل دراسة لـ16 جامعة من بينها جامعات راسل وجامعات حديثة التأسيس، عن استخدام واسع النطاق لـGenAI في إعداد التقارير الخاصة بالـREF، لكنه اختلف من حيث الشكل والمستوى حسب قدرات المؤسسات. فبعض الجامعات استخدمت الأدوات لتجميع أدلة حول الأثر الاجتماعي للبحث وصياغة قصص ترويجية، بينما طوّرت أخرى أدوات داخلية لتسريع العمليات أو استخدام الذكاء الاصطناعي لتقييم وتصنيف الأبحاث. في استبيان شمل نحو 400 أكاديمي وموظف إداري، أظهرت النتائج تأييدًا ضعيفًا لاستخدام الذكاء الاصطناعي في مراحل مختلفة من عملية التقييم، حيث تراوحت نسبة الرفض القوي بين 54% و75% حسب الجوانب، مع استثناء واحد: دعم ما يقارب ربع المشاركين (23%) لاستخدامه في إعداد دراسات الأثر. وظهر تباين واضح بين التخصصات، إذ كانت الأكاديميات في الفنون والعلوم الإنسانية والاجتماعية أكثر تردّدًا، بينما كان موظفو الخدمات المهنية والجامعات التي تفتقر إلى الموارد أكثر انفتاحًا على الفكرة. في مقابلات مع 16 نائبًا لرئيس الجامعات، تباينت الآراء: بعضهم رأى أن استخدام الذكاء الاصطناعي أمر لا مفر منه ويجب التحضير له، بينما انتقد آخرون التفاؤل المفرط حيال التكنولوجيا، وذكروا أن التقييمات الحالية لا تزال تفتقر إلى وضوح في حدود الذكاء الاصطناعي، وأن العديد من الباحثين لا يمتلكون خبرة فعلية في استخدامه. أكد الباحثون أن الاستخدام غير المنسق للذكاء الاصطناعي يُهدّد بخلق فجوة بين الجامعات، حيث تتمتع المؤسسات الكبيرة بقدرة على تطوير أدوات مخصصة، بينما تعتمد الأخرى على أدوات عامة. ودعا التقرير إلى إنشاء سياسات واضحة في جميع الجامعات، وتدريب شامل للعاملين، وضمانات أمنية، بالإضافة إلى إنشاء إطار وطني للإشراف على استخدام الذكاء الاصطناعي في التقييمات البحثية، بما في ذلك منصة مشتركة عالية الجودة تُتاح للجميع. يُعتبر هذا التقرير خطوة مهمة نحو تطوير نظام تقييم بحثي أكثر كفاءة وشفافية، خاصة في ظل تراجع نماذج مشابهة في أستراليا ونيوزيلندا. وشددت الجهات المعنية على أن الذكاء الاصطناعي ليس حلاً سحريًا، لكنه يُعدّ جزءًا لا يتجزأ من التحول الضروري في نظام التقييم البحثي، شريطة أن يُدار بمبادئ الشفافية، والرقابة البشرية، والعدالة.

الروابط ذات الصلة

تقرير بريطاني يكشف انتشار استخدام الذكاء الاصطناعي التوليدي في تقييم جودة الأبحاث الجامعية | القصص الشائعة | HyperAI