HyperAIHyperAI

Command Palette

Search for a command to run...

انهيار شفافية شركات الذكاء الاصطناعي يسجل أدنى مستوياته في 2025 تحليل جديد يُظهر أن شركات الذكاء الاصطناعي تراجعت بشكل حاد في شفافيتها، حيث سجلت المعدل العام 40 من أصل 100 نقطة فقط في تقرير مؤشر الشفافية النموذجية الأساسية لعام 2025، مقارنة بـ 58 نقطة في العام الماضي، ما يعكس تدهورًا ملحوظًا في ممارسات الشفافية على مستوى الصناعة. الدراسة، التي أعدّها فريق بحثي من جامعة ستانفورد، بيركلي، برينستون، وMIT، تُعدّ النسخة الثالثة من مؤشر الشفافية النموذجية الأساسية، وتقيّم 13 شركة رائدة في مجال الذكاء الاصطناعي، من بينها جوجل، ميتا، أوبيناي، أنثروبيك، وشركات صينية جديدة مثل ألي بابا وديب سكيك. النتائج تكشف تفاوتًا كبيرًا بين الشركات: بينما تصدرت IBM التصنيف بـ 95 من أصل 100 نقطة، بفضل شفافيتها الاستثنائية في كشف بيانات التدريب وتمكين الباحثين من محاكاة النماذج، فإن شركتين فقط هما xAI وMidjourney، اللتان حصلا على 14 نقطة فقط، وهما الأضعف في تاريخ المؤشر. الشركات المتأخرة لا تكشف عن أي تفاصيل حول بيانات التدريب، أو المخاطر المرتبطة بمنتجاتها، أو خطط التخفيف من هذه المخاطر. كما أن 10 شركات، بينها جوجل، أوبيناي، ميتا، وآلي بابا، لا تقدم أي معلومات حول الأثر البيئي لبناء النماذج، بما في ذلك استهلاك الطاقة، الانبعاثات الكربونية، أو استهلاك المياه. البيانات تُظهر أن الشفافية لا تُقاس بالتوسع في إصدار النماذج المفتوحة، بل بالكشف الشامل عن الممارسات. فبينما تُعتبر بعض الشركات المفتوحة في نشر أوزان النماذج، مثل DeepSeek وMeta، إلا أنها تظل شديدة الإغلاق في مجالات حيوية مثل حسابات التدريب، وتقييم المخاطر، واستخدام النماذج في العالم الحقيقي. التحديث في مؤشر 2025 يعكس تغيرات جوهرية في البيئة التكنولوجية، حيث تم تعديل المؤشرات لتتماشى مع التطورات الحالية، مثل التحديات البيئية، والاعتماد المتزايد على النماذج الكبيرة، والتأثيرات الاجتماعية. ونتيجة لذلك، تراجعت درجات شركات كبرى: ميتا من 60 إلى 31، وميسترال من 55 إلى 18، بينما ارتفعت درجة AI21 Labs من المركز الأخير إلى الأول. الدراسة تسلط الضوء على أن الشفافية لا تُبنى على إرادة فردية، بل على ضغوط سياسية وتنظيمية. مع تزايد التحديات البيئية والاجتماعية، وزيادة التوترات حول استخدام الذكاء الاصطناعي في صناعة المحتوى، أصبحت الحاجة إلى شفافية أكبر أكثر إلحاحًا. الولايات المتحدة كاليفورنيا، والاتحاد الأوروبي، بدأتا بفرض تشريعات تفرض الشفافية حول المخاطر المحتملة للذكاء الاصطناعي المتقدم، بينما يدعو دين بال، المستشار السابق للذكاء الاصطناعي في البيت الأبيض، إلى إدراج الشفافية كعنصر أساسي في أي استراتيجية تنظيمية. المؤشر لا يُعدّ مجرد تقييم، بل خريطة طريق للسياسات العامة، ويُظهر أن المجالات الأكثر إغلاقًا – مثل بيانات التدريب، وحسابات الحوسبة، وتأثير النماذج على المجتمع – بحاجة ماسة إلى تدخل تنظيمي. في ظل تزايد الاعتماد على الذكاء الاصطناعي في كل جوانب الحياة، تُعد الشفافية ليس خيارًا، بل ضرورة لضمان حوكمة مسؤولة، وتحقيق توازن بين الابتكار والسلامة.

تُظهر تحليلات جديدة نُشرت في 2025 أن شفافية شركات الذكاء الاصطناعي تراجعت إلى أدنى مستوياتها، حيث ارتفع متوسط التصنيف في "مؤشر شفافية نماذج الأساس" (FMTI) إلى 40 من أصل 100، مقارنة بـ58 في 2024، في تقرير يُعدّ ثالث إصدار له. أُعدّ التقرير من قبل فريق بحثي من جامعات ستانفورد وبركلي وبرينستون وMIT، ويقيّم 13 شركة رائدة في مجال الذكاء الاصطناعي، من بينها جوجل، ميتا، أوبن أي، أنتروبيك، وآي بي إم، بالإضافة إلى شركات صينية جديدة مثل ألي بابا وديب سك، وشركات مختصة في التوليد الصوتي والصوري مثل ميدجورني وxAI. يُظهر التقرير تباينًا كبيرًا في ممارسات الشفافية، حيث تُصنف الشركات إلى ثلاث مجموعات: فئة المُقدِّمين المتميزين (متوسط 75)، والوسط (35)، والأدنى (15). وتصدرت آي بي إم التصنيف بـ95/100، مُتَّخذة مبادرة غير مسبوقة في كشف تفاصيل مكّنت الباحثين من إعادة إنشاء بيانات التدريب وتمكين الجهات المُراقبة من الوصول إليها. في المقابل، تلقت شركتا xAI وMidjourney تقييمات متدنية جدًا (14/100)، دون أي معلومات حول بيانات التدريب، أو المخاطر، أو إجراءات التخفيف. وأشار التقرير إلى أن 10 شركات، من بينها جوجل وأوبن أي، وآي بي إم، وآلي بابا، ودبي سك، وMistral، وMidjourney، وOpenAI، وMeta، وAmazon، وAnthropic، لم تُفصح عن أي معلومات حول الأثر البيئي لبناء النماذج، مثل استهلاك الطاقة، أو الانبعاثات الكربونية، أو استهلاك المياه، في وقت تشهد فيه البنية التحتية للطاقة ضغطًا متزايدًا بسبب مراكز البيانات الضخمة. وأظهر التقرير أيضًا تراجعًا ملحوظًا في الشفافية من قبل شركات كبرى: انخفضت درجة ميتا من 60 إلى 31، وانخفضت درجة ميسترال من 55 إلى 18، وتأخرت جوجل في نشر تقرير فني وكارت نموذج لـGemini 2.5، ما أثار انتقادات من مسؤولين بريطانيين. كما تغيرت ترتيبات الشركات بشكل كبير: فقدت ميتا وOpenAI موقعهما في الصدارة، بينما ارتفعت AI21 Labs من المركز الأخير في 2023 إلى الصدارة في 2025. يُعدّ التقرير دعوة واضحة لتدخل سياسي، إذ تُظهر البيانات أن الشفافية لا تُحَفَّز بعوامل سوقية، بل تعتمد على اختيار مبادرات داخلية. ويشير التقرير إلى أن الشفافية لا تُقاس فقط بـ"الانفتاح" (كإتاحة أوزان النموذج)، بل بـ"الشفافية" الحقيقية في كشف معلومات حول التدريب، والمخاطر، والتأثيرات الاجتماعية. ورغم أن بعض الشركات المفتوحة (مثل آي بي إم وAI21) مُتَّسِعة، فإن شركات مفتوحة أخرى (مثل ميتا وديب سك) تُبقي معلوماتها مُحَدَّدة. وأكدت الدراسة أن الحاجة إلى مزيد من الشفافية ليست مجرد مسألة أخلاقية، بل ضرورة لضمان الحوكمة، والحد من الأضرار، وتعزيز الرقابة على تقنيات متقدمة تؤثر على حياة مليارات الناس. وتشير التوجهات العالمية، مثل القوانين في كاليفورنيا والاتحاد الأوروبي، إلى أن الشفافية أصبحت عنصرًا أساسيًا في تنظيم الذكاء الاصطناعي، كما دعا دين بال، المستشار السابق للبيت الأبيض، إلى تبني إجراءات شفافة كجزء من سياسات الذكاء الاصطناعي. ويُعدّ مؤشر FMTI أداة قوية لتحديد المجالات التي تحتاج إلى تدخل سياسي لتحسين الشفافية في صناعة الذكاء الاصطناعي.

الروابط ذات الصلة

انهيار شفافية شركات الذكاء الاصطناعي يسجل أدنى مستوياته في 2025 تحليل جديد يُظهر أن شركات الذكاء الاصطناعي تراجعت بشكل حاد في شفافيتها، حيث سجلت المعدل العام 40 من أصل 100 نقطة فقط في تقرير مؤشر الشفافية النموذجية الأساسية لعام 2025، مقارنة بـ 58 نقطة في العام الماضي، ما يعكس تدهورًا ملحوظًا في ممارسات الشفافية على مستوى الصناعة. الدراسة، التي أعدّها فريق بحثي من جامعة ستانفورد، بيركلي، برينستون، وMIT، تُعدّ النسخة الثالثة من مؤشر الشفافية النموذجية الأساسية، وتقيّم 13 شركة رائدة في مجال الذكاء الاصطناعي، من بينها جوجل، ميتا، أوبيناي، أنثروبيك، وشركات صينية جديدة مثل ألي بابا وديب سكيك. النتائج تكشف تفاوتًا كبيرًا بين الشركات: بينما تصدرت IBM التصنيف بـ 95 من أصل 100 نقطة، بفضل شفافيتها الاستثنائية في كشف بيانات التدريب وتمكين الباحثين من محاكاة النماذج، فإن شركتين فقط هما xAI وMidjourney، اللتان حصلا على 14 نقطة فقط، وهما الأضعف في تاريخ المؤشر. الشركات المتأخرة لا تكشف عن أي تفاصيل حول بيانات التدريب، أو المخاطر المرتبطة بمنتجاتها، أو خطط التخفيف من هذه المخاطر. كما أن 10 شركات، بينها جوجل، أوبيناي، ميتا، وآلي بابا، لا تقدم أي معلومات حول الأثر البيئي لبناء النماذج، بما في ذلك استهلاك الطاقة، الانبعاثات الكربونية، أو استهلاك المياه. البيانات تُظهر أن الشفافية لا تُقاس بالتوسع في إصدار النماذج المفتوحة، بل بالكشف الشامل عن الممارسات. فبينما تُعتبر بعض الشركات المفتوحة في نشر أوزان النماذج، مثل DeepSeek وMeta، إلا أنها تظل شديدة الإغلاق في مجالات حيوية مثل حسابات التدريب، وتقييم المخاطر، واستخدام النماذج في العالم الحقيقي. التحديث في مؤشر 2025 يعكس تغيرات جوهرية في البيئة التكنولوجية، حيث تم تعديل المؤشرات لتتماشى مع التطورات الحالية، مثل التحديات البيئية، والاعتماد المتزايد على النماذج الكبيرة، والتأثيرات الاجتماعية. ونتيجة لذلك، تراجعت درجات شركات كبرى: ميتا من 60 إلى 31، وميسترال من 55 إلى 18، بينما ارتفعت درجة AI21 Labs من المركز الأخير إلى الأول. الدراسة تسلط الضوء على أن الشفافية لا تُبنى على إرادة فردية، بل على ضغوط سياسية وتنظيمية. مع تزايد التحديات البيئية والاجتماعية، وزيادة التوترات حول استخدام الذكاء الاصطناعي في صناعة المحتوى، أصبحت الحاجة إلى شفافية أكبر أكثر إلحاحًا. الولايات المتحدة كاليفورنيا، والاتحاد الأوروبي، بدأتا بفرض تشريعات تفرض الشفافية حول المخاطر المحتملة للذكاء الاصطناعي المتقدم، بينما يدعو دين بال، المستشار السابق للذكاء الاصطناعي في البيت الأبيض، إلى إدراج الشفافية كعنصر أساسي في أي استراتيجية تنظيمية. المؤشر لا يُعدّ مجرد تقييم، بل خريطة طريق للسياسات العامة، ويُظهر أن المجالات الأكثر إغلاقًا – مثل بيانات التدريب، وحسابات الحوسبة، وتأثير النماذج على المجتمع – بحاجة ماسة إلى تدخل تنظيمي. في ظل تزايد الاعتماد على الذكاء الاصطناعي في كل جوانب الحياة، تُعد الشفافية ليس خيارًا، بل ضرورة لضمان حوكمة مسؤولة، وتحقيق توازن بين الابتكار والسلامة. | القصص الشائعة | HyperAI