HyperAIHyperAI
Back to Headlines

استخدام الذكاء الاصطناعي في النظام القضائي البريطاني يهدد بتغطية الثغرات الناتجة عن سنوات من التهميش المالي

منذ 4 أيام

أكثر من عقد من التقليل من التمويل الحكومي قد دفع نظام العدالة في المملكة المتحدة إلى حالة أزمة، حيث تراكمت قضايا كثيرة وتم إلغاء مواعيد المحاكم بسبب مشكلات لوجستية. النظام القضائي في بريطانيا ليس موحدًا، بل يتألف من ثلاثة أنظمة قانونية منفصلة في إنجلترا وويلز، واسكتلندا، وشمال أيرلندا، مما يعقد جهود التحديث. في ظل هذا التدهور، دعت أصوات بارزة في السياسة، مثل معهد توني بلير ومؤسسة بولسي إكسبشان، إلى استخدام الذكاء الاصطناعي (AI) كحل محتمل للتحديات في القطاع العام. يُنظر إلى الذكاء الاصطناعي، خصوصًا نماذج اللغة الكبيرة (LLMs) التي تُستخدم في مساعدات ذكية مثل ChatGPT، على أنه أداة لتحرير الموظفين من الأعباء الإدارية، مما يتيح لهم التركيز على الجوانب الإنسانية للعدالة، مثل التفاعل المباشر مع المتهمين والضحايا. في يناير 2025، أعلنت الحكومة العمالية عن خطة لتطبيق الذكاء الاصطناعي على نطاق واسع لتعزيز النمو، وتحسين مستوى المعيشة، وتحويل الخدمات العامة. ومع ذلك، فإن استخدام هذه الأدوات لا يُعد جديدًا. فمنذ سنوات، استُخدمت أدوات مثل "مراجعة التكنولوجيا المساعدة" لتقييم صلة الوثائق بالقضايا، كما استُخدمت خوارزميات تقييم المخاطر في قضايا الإفراج المشروط والهجرة، ما أثار مخاوف من تعزيز التفاوتات الاجتماعية وتضليل الأشخاص بقرارات تؤثر على حياتهم دون إبلاغهم. الآن، تركز الجهود الحالية على أدوات LLM لتسريع العمليات الإدارية، مثل صياغة التصريحات، وتلخيص المستندات، وتحليل قوانين القضايا. وتم تسجيل نجاحات أولية، مثل توفير 50 ألف جنيه استرليني في محكمة أولد بايلي من خلال استخدام الذكاء الاصطناعي في تحليل الأدلة. لكن التحديات كبيرة. تشير بيانات تجريبية من وزارة الداخلية إلى أن 9% من ملخصات القضايا التي أنتجتها نماذج LLM كانت غير دقيقة أو ناقصة مراجع المقابلات، و23% من المستخدمين لم يشعروا بالثقة الكاملة في النتائج رغم وفرة الوقت. كما حذر قاضٍ رفيع المستوى في يونيو 2025 من استخدام هذه الأدوات بسبب خطر "الوهم" أو إنتاج معلومات زائفة، ما حدث بالفعل في قضايا في دول أخرى. في يوليو 2025، أصدرت وزارة العدل خطة عمل للذكاء الاصطناعي، تهدف إلى تطبيق هذه الأدوات على 95 ألف موظف في النظام القضائي بحلول ديسمبر، مع تعيين مسؤول رفيع المستوى للذكاء الاصطناعي، ووضع مبادئ أخلاقية وشفافية عبر موقع إلكتروني. لكن الخطة لا تزال تُشجع على استخدامات مثيرة للجدل، مثل تقييم خطر العنف داخل السجون. الخطر الأكبر يكمن في أن تُستخدم هذه الأدوات لخفض التكاليف، وليس لتحسين العدالة. فعندما تكون الموارد البشرية محدودة، يصبح من الصعب اكتشاف الأخطاء التي تُنتجها الأنظمة، مما يُضر بذوي الموارد المحدودة، خصوصًا الفئات المهمشة. كما أشارت خبيرة العدالة الجنائية جيمما بيركيت إلى أن الأنظمة الآلية السابقة، مثل التماس الاعتراف بالذنب إلكترونيًا، أدت إلى اعترافات غير صحيحة من قبل نساء مُهمشات. إذًا، لا يُعد الذكاء الاصطناعي حلًا جذريًا، بل قد يُغطي على التدهور الهيكلي الناتج عن سنوات من التقشف. في المقابل، يمكن أن يُصبح أداة فعالة فقط إذا تم تطويرها بعناية، وضمان وجود رقابة بشرية قوية، وتحسين الموارد، وليس بدلها.

Related Links