HyperAIHyperAI

Command Palette

Search for a command to run...

ديلويت تُعيد تمويل الحكومة الأسترالية بعد تقرير مليء بالخرافات الناتجة عن الذكاء الاصطناعي

أعلنت شركة ديلويت، إحدى أكبر شركات الاستشارات العالمية، عن عزمها رد مبلغ مالي للحكومة الأسترالية، بعدما تبين أن تقريرًا أعدته يحتوي على معلومات خاطئة وادعاءات غير مدعومة بوثائق حقيقية، بما في ذلك اقتباسات واقعية لم تُذكر أصلًا في مصادر موثوقة. وقد اتضح أن التقرير، الذي تم إعداده لصالح أحد الوزارات الأسترالية، استخدم تقنية الذكاء الاصطناعي، على وجه التحديد نموذج GPT-4o، في جزء كبير من مراحل التحليل والكتابة، دون إفصاح عن ذلك. الحادثة اكتشفت في أغسطس الماضي، عندما لاحظ مسؤولون حكوميون تناقضات خطيرة في التقرير، منها اقتباسات مذكورة كأنها مأخوذة من دراسات علمية رسمية، لكنها لم تُنشر فعليًا في أي منشورات مراجعة علمية أو مصادر معتمدة. بعض هذه الاقتباسات كانت مبنية على وهم ذكي ناتج عن ما يُعرف بـ"الهلوسة" (hallucinations) التي تُنتجها نماذج الذكاء الاصطناعي، وهي ظاهرة شائعة حيث يُخترع النموذج معلومات واقعية المظهر لكنها غير صحيحة. بعد التحقيق الداخلي، اعترفت ديلويت باستخدام أدوات ذكاء اصطناعي متقدمة في إعداد التقرير، رغم أن الشركة كانت تُصر على أن التحليلات الأساسية كانت مدعومة ببيانات حقيقية. ومع ذلك، أقرت بأن استخدام الذكاء الاصطناعي في صياغة النصوص والاقتباسات أدى إلى تضليل غير مقصود، ما جعل التقرير غير موثوق في جزء كبير من محتواه. في خطوة مفاجئة، قررت الشركة تحمّل المسؤولية الكاملة، وتم التوصل إلى اتفاق مع الحكومة الأسترالية لاسترداد المبلغ المدفوع مقابل العمل، مع التزام ديلويت بإجراء مراجعة شاملة لسياسات استخدام الذكاء الاصطناعي في مشاريعها المستقبلية. كما ستعمل الشركة على تدريب موظفيها على التحقق المنهجي من مصادر المعلومات، حتى عند استخدام أدوات مساعدة ذكية. الحادثة أثارت جدلًا واسعًا حول مسؤولية الشركات الاستشارية في ضمان دقة المخرجات التي تقدمها للجهات الحكومية، خاصة مع التوسع المتسارع في استخدام أدوات الذكاء الاصطناعي في المهام المهنية. خبراء في مجال التقنية والسياسات الحكومية حذروا من أن التفريط في المساءلة والتدقيق قد يُعرّض القرارات العامة إلى خطر خطأ مهول، خصوصًا في المجالات الحساسة مثل الصحة، الأمن، والسياسة العامة. في الوقت نفسه، أشارت بعض التقارير إلى أن ديلويت ليست الوحدة الوحيدة التي تعاني من هذه المشكلة، إذ تُستخدم أدوات الذكاء الاصطناعي على نطاق واسع في شركات الاستشارات الكبرى، ما يُعد تحديًا متزايدًا في الحفاظ على الجودة والشفافية. وقد دعت الجهات الرقابية الأسترالية إلى تطوير إرشادات واضحة لاستخدام الذكاء الاصطناعي في العمل الحكومي، تضمن المساءلة والدقة. الحدث يُعد نموذجًا حديثًا على التحديات التي تواجهها المؤسسات في عصر الذكاء الاصطناعي، حيث التوسع في الكفاءة يأتي على حساب الدقة إذا لم تُرافق بآليات رقابة صارمة.

الروابط ذات الصلة