أداة جديدة من OpenAI تثير مخاوف من تفشي "النفايات الذكية" في البحث العلمي
أطلقت شركة OpenAI أداة جديدة تُعرف بـ"بريزم" (Prism)، وهي بيئة عمل مصممة لتسهيل استخدام الذكاء الاصطناعي في إجراء الأبحاث العلمية، لكنها أثارت مخاوف متزايدة بين الباحثين حول تفاقم ظاهرة ما يُسمى بـ"النفايات الذهنية" أو "AI slop" – أي المحتوى العلمي منخفض الجودة الذي يُنتج بمساعدة الذكاء الاصطناعي. جاء إطلاق الأداة في وقت تُظهر فيه دراسات حديثة أن عدد الأوراق البحثية التي تستخدم أدوات الذكاء الاصطناعي في كتابتها أو تحليلها يرتفع بسرعة، مع تراجع ملحوظ في المعايير العلمية والدقة. تُعد "بريزم" منصة متكاملة تتيح للباحثين التفاعل مع نماذج الذكاء الاصطناعي لصياغة الفرضيات، وتحليل البيانات، وحتى صياغة النتائج، كل ذلك في بيئة موحدة. وتشمل الميزة الرئيسية للميزة تكاملها مع أدوات البحث التقليدية، مثل قواعد البيانات الأكاديمية وبرامج تحليل البيانات، مما يُسهّل سير العملية البحثية. ورغم التحفيز الكبير الذي تقدمه الأداة لتسريع الأبحاث، فإن خبراء في مجال العلم والتكنولوجيا يحذرون من أن سهولة الاستخدام قد تؤدي إلى إنتاج كمّ هائل من المقالات التي تفتقر إلى التحقق الدقيق أو المراجعة العلمية الصارمة. تُظهر دراسات حديثة، منها واحدة نُشرت في مجلة "نيتشر"، أن ما يزيد عن 30% من الأوراق البحثية المنشورة في المجالات العلمية المختلفة خلال العام الماضي تضمنت مساهمات من الذكاء الاصطناعي، ومعظمها لم يُكشف عن استخدامه بشكل واضح. كما أشارت بعض التحليلات إلى أن هذه المقالات تميل إلى أن تكون أقل دقة في الاستشهاد بالمصادر، وتُظهر تكرارًا مفرطًا في الصياغة، وغالبًا ما تُقدم نتائج غير مدعومة بتجارب فعلية. القلق الأكبر يكمن في أن هذه المقالات، رغم ضعف جودتها، قد تُنشر في مجلات علمية تُعنى بالسرعة على حساب الجودة، ما يُعرّض مصداقية البحث العلمي للخطر. كما أن استخدام الذكاء الاصطناعي دون تدقيق يُمكن أن يُعزز التحيزات المضمنة في البيانات التي تم تدريب النماذج عليها، مما يُؤثر سلبًا على نتائج الأبحاث. في المقابل، يرى بعض الباحثين أن الذكاء الاصطناعي يمكن أن يكون أداة مفيدة إذا استُخدم بحذر. ففي المراحل الأولية، مثل صياغة الأفكار أو تجميع المراجع، قد يُقلل من العبء على الباحثين. لكنهم يشددون على أن المسؤولية النهائية عن دقة المحتوى تبقى على الباحث البشري، ولا يمكن التفريط في المراجعة والتحقق العلمي. في هذا السياق، دعت جهات بحثية دولية إلى وضع معايير واضحة لتحديد متى وكيف يجب الإفصاح عن استخدام الذكاء الاصطناعي في الأبحاث، وضرورة تطوير أدوات تقييم تُساعد المحررين والمراجعين على اكتشاف المحتوى المُنتج بمساعدة الذكاء الاصطناعي. كما أُوصي بتدريب الباحثين على التمييز بين ما هو مفيد وما هو ضار في استخدام هذه الأدوات. مع استمرار تطور أدوات الذكاء الاصطناعي، يصبح من الضروري التوازن بين الاستفادة من التقدم التكنولوجي، والحفاظ على معايير الجودة والشفافية في البحث العلمي. وإلا، قد تتحول المكتبة العلمية من مصدراً للمعرفة إلى بحر من المعلومات المضللة، تُنتج بسرعة، لكنها تفتقر إلى العمق والصدق.
