HyperAIHyperAI

Command Palette

Search for a command to run...

يُعدّ تشكيل لجان من الأقران ضروريًا لتقييم مصداقية الذكاء الاصطناعي — الخبراء وحدهم ليسوا كافيين

يشير مقال علمي نُشر في مجلة ناتشر في نوفمبر 2025 إلى ضرورة تجاوز التقييمات التقنية التقليدية لذكاء اصطناعي، وخاصة تلك التي تعتمد على آراء الخبراء فقط، في تحديد مدى موثوقية النماذج الذكية. ويدعو كاتبو المقال، الذين ينتمون إلى جامعة تكنولوجيا تشيجيانغ وجامعة شنغهاي للتعليم الطبيعي، إلى إنشاء لجان متنوعة من الخبراء والجمهور العام لتقييم أداء الذكاء الاصطناعي، بدلاً من ترك هذا القرار في أيدي دائرة ضيقة من المتخصصين. في مقال سابق، اقترح الباحث فيناي تشودهري استخدام ما يُعرف بـ"اختبار سونستاين"، وهو اختبار يستند إلى مقابلات مع خبراء لاختبار مدى فهم النموذج الذكي لمفاهيم معقدة. ورغم أن هذه الطريقة فعّالة في قياس المهارة التقنية، إلا أن الكاتبين يحذّران من أن تبنيها بشكل مفرط قد يؤدي إلى ترسيخ هيمنة مجموعة صغيرة من الخبراء، ما يعزز التفاوت في القوة والتأثير، وفقاً لتحليل كاثي أوين، التي أشارت في مقالها إلى أن أهداف الذكاء الاصطناعي تعكس في جوهرها مصالح من يصنعونه ويسيطرون عليه. يُبرز المقال أن تقييم موثوقية الذكاء الاصطناعي لا يمكن أن يقتصر على المعايير التقنية أو الأداء في اختبارات مختصة، بل يجب أن يشمل آراء متنوعة من مجتمعات مختلفة، بما في ذلك المستخدمين النهائيين، والمهنيين من مجالات غير تقنية، والمجتمعات المتأثرة بالتقنيات. هذا النهج يُعد خطوة نحو عدالة أكثر في تطوير ونشر الذكاء الاصطناعي، ويُقلل من خطر تعميم تحيزات مسبقة أو اجتهادات محدودة. كما يُشجع المقال على تطوير معايير تقييم جديدة، تتجاوز نموذج تورينغ الكلاسيكي، وتعكس المعرفة الحقيقية في العالم الواقعي، والقدرة على التفكير المنطقي، والتفاعل مع التحديات الاجتماعية والأخلاقية. ويدعو إلى تضمين معايير ملموسة لقياس التأثير الاجتماعي، والعدالة، وشفافية اتخاذ القرار، في تقييمات الذكاء الاصطناعي. في سياق أوسع، يُظهر المقال تزايد الوعي بمخاطر تفوق التكنولوجيا على الرقابة البشرية، خصوصاً مع تطور نماذج لغوية ضخمة (LLMs) ونماذج "صغيرة" قادرة على أداء مهام معقدة. ورغم التقدم المذهل، يظل التحدي الأكبر هو ضمان أن تُستخدم هذه التقنيات لخدمة الجميع، وليس فقط لصالح فئة محدودة. الكاتبون يؤكدون أن الاستقلالية الأكاديمية، والشفافية، والمشاركة المجتمعية، هي عناصر أساسية لبناء نظام ذكاء اصطناعي مسؤول ومستدام. ويُختتم المقال بدعوة لتعزيز تعددية الأصوات في تقييم الذكاء الاصطناعي، لضمان أن يُبنى مستقبل التكنولوجيا على أسس عادلة، وشاملة، ومستندة إلى مبادئ أخلاقية حقيقية.

الروابط ذات الصلة

يُعدّ تشكيل لجان من الأقران ضروريًا لتقييم مصداقية الذكاء الاصطناعي — الخبراء وحدهم ليسوا كافيين | القصص الشائعة | HyperAI