HyperAIHyperAI

Command Palette

Search for a command to run...

ICLR 2026 يواجه أزمة ثقة بعد اكتشاف تضليل في مراجعات أوراق بحثية

بعد أقل من أسبوعين من فضيحة تسريب هوية المراجعين في OpenReview التي أطلق عليها وسائط الإعلام لقب "الكشف عن الهوية"، تواجه مؤتمر ICLR تطورًا مقلقًا جديدًا حيث كشفت شركة GPTZero عن وجود مخالفات جسيمة في مئات من أوراق البحث المقدمة لمؤتمر ICLR 2026. وفقًا لمسح عشوائي لـ 300 ورقة بحثية، اكتشفت الأدوات التحليلية للشركة أكثر من 50 ورقة تُظهر مؤشرات واضحة على ظاهرة "الوهم الاصطناعي" التي تنتجها نماذج الذكاء الاصطناعي، حيث تم اختراع مراجع حقيقية من حيث العنوان والعام، لكنها مزيفة من حيث المُؤلفين أو البيانات التجريبية. من أبرز الأمثلة ورقة بعنوان TamperTok التي حصلت على متوسط تقييم 8.0، وهي درجة تمثل مستوى متميزًا يُعدّ للفوز بعرض شفهي، لكن التحليل أظهر أن مراجعها تضم أسماء مؤلفين مزيفة رغم أن العنوان والمؤتمر المذكور (NeurIPS 2023) حقيقيان. في ورقة أخرى بعنوان MixtureVitae، تم استخدام استراتيجية مزدوجة حيث تم الحفاظ على أول ثلاثة مؤلفين حقيقيين ثم إدراج أسماء وهمية أو جزئية، مما يزيد من صعوبة الكشف. كما تم العثور على ورقة بعنوان Safe-LLM تحمل علامة نشر في ICLR 2025 رغم أنها تُقدّم لمؤتمر 2026، وورقة أخرى بعنوان IMPQ تستخدم رابطًا حقيقيًا على arXiv لكنه يشير إلى ورقة مختلفة تمامًا في المحتوى. هذه الأساليب تُظهر تطورًا في محاولات التحايل على الأنظمة الحالية التي تعتمد على التحقق الآلي من الروابط دون مقارنة المحتوى. يُقدّر أن عدد مشاركات ICLR 2026 وصل إلى 19490 ورقة، مع أكثر من 75000 تقييم من المراجعين، ما يضع ضغطًا هائلاً على عملية المراجعة. مع تزايد استخدام الذكاء الاصطناعي في كتابة الأوراق، أصبحت المراجعات نفسها عرضة للتحريف، حيث أظهرت دراسات أن 21% من التقييمات قد تكون مكتوبة بواسطة نماذج ذكاء اصطناعي، ونصفها على الأقل يحتوي على مساعدة من الذكاء الاصطناعي. هذا يخلق دورة سلبية حيث يُستخدم الذكاء الاصطناعي لكتابة الأوراق، ثم يُستخدم الذكاء الاصطناعي لفحصها، مما يقلل من فعالية التقييم. على الرغم من أن لجنة ICLR أصدرت في أغسطس الماضي سياسة صارمة تُلزم المؤلفين بالإفصاح عن استخدام الذكاء الاصطناعي والمسؤولية عن دقة المحتوى، إلا أن الواقع يُظهر أن هذه القواعد غير كافية لوقف التلاعب. فضلاً عن ذلك، لا توجد أدوات فنية فعالة للكشف عن الوهم الاصطناعي في المراجع أو البيانات، مما يجعل التحقق اليدوي غير عملي في مواجهة حجم التسجيلات الهائلة. هذه الأزمة تُبرز ثغرة جسيمة في نظام التقييم الأكاديمي المعاصر، حيث يُهدد التفشي المتسارع للوهم الاصطناعي بتشويه سمعة المؤتمرات الرائدة، وتقليل مصداقية الأبحاث، ودفع الأفكار الحقيقية إلى الخلف. إن التحدي لا يقتصر على التكنولوجيا، بل يمتد إلى البنية التنظيمية والبشرية، حيث يفتقر النظام إلى الموارد البشرية الكافية والآليات التكنولوجية المتطورة لمواجهة هذا التحدي. بدون تدخل جذري يشمل تطوير أدوات كشف متقدمة، وتدريب المراجعين على التمييز بين المحتوى الحقيقي والوهمي، وفرض عقوبات حقيقية على المخالفين، فإن جودة الأبحاث العلمية في مجال الذكاء الاصطناعي قد تستمر في التدهور، مما يهدد مستقبل الابتكار في هذا المجال.

الروابط ذات الصلة