HyperAIHyperAI

Command Palette

Search for a command to run...

كيف يوقف المحامون تضليل الذكاء الاصطناعي؟ بالذكاء الاصطناعي نفسه، بالطبع

رغم الحظر المفروض على استخدام أدوات الذكاء الاصطناعي العامة مثل ChatGPT وClaude في بعض المكاتب القانونية، تظل مشكلة "الهلوسة" — أي اختراع حالات قضائية أو مراجع واقعية — تهدد دقة الملفات القانونية. بعد أن عاقب قاضٍ مكتب Cozen O'Connor بسبب تضمين ملفات مقدمة منه حالات قضائية وهمية، أطلق المكتب برنامجًا تجريبيًا للكشف عن هذه الأخطاء باستخدام برنامج جديد من شركة Clearbrief. هذا الأداة، التي تعمل كإضافة لبرنامج Microsoft Word، تفحص النصوص القانونية باستخدام معالجة اللغة الطبيعية، وتُحدد الاقتباسات والحقائق المُختلقة أو غير الدقيقة، وتُظهر الروابط إلى المصادر الحقيقية أو تشير إلى عدم توافق النص مع المضمون الأصلي. السبب الجذري للهلوسة يكمن في طبيعة نماذج اللغة الكبيرة التي تُدرّب على التنبؤ بالكلمة التالية بناءً على السياق، وليس على الدقة أو الحقيقة. لذلك، حتى مع وجود أدوات متطورة، لا يمكن القضاء تمامًا على هذه الظاهرة. لكن الشركات الكبرى مثل Thomson Reuters وLexisNexis تسعى لتقليل الخطر من خلال حصر الذكاء الاصطناعي في قواعد بيانات قانونية مُدققة ومُختارة، مثل قوائم الأحكام القضائية والمراجع القانونية المعتمدة، مما يقلل من احتمالية الابتكار الوهمي. شركة LexisNexis، التي تمتلك واحدة من أكبر قواعد البيانات القانونية في العالم، دخلت شراكة مع Harvey، منصة ذكاء اصطناعي قانونية تبلغ قيمتها 8 مليارات دولار، لدمج قواعد بيانات LexisNexis في أدواتها. كما تتعاون Harvey مع شركات مثل OpenAI وAnthropic لتحديد المجموعات البيانات التي يمكن للنماذج الاعتماد عليها، مع إمكانية التحقق من سجلات الأداء وتحليل مصدر كل إجابة. في مكتب Cozen O'Connor، تُعدّ أداة Clearbrief جزءًا من جهود تطوير نظام إدارة معرفة مُحسّن، حيث تُخزَّن تقارير التحقق من الاقتباسات جنبًا إلى جنب مع الملفات، لتمكين الشفافية في حال طُلب تبرير دقة التصريحات. هذا يُمكّن الشريك القانوني من إثبات أنه اتخذ إجراءات وقائية، وهو أمر حاسم وفقًا للقواعد الفيدرالية التي تُحمّل الشريك المسؤولية الشخصية عن دقة الوثائق المقدمة. رغم أن عدد الحالات المسجلة لا يزال ضئيلًا مقارنةً بعدد الملفات القانونية، فإن عدد التقارير التي تُوثق هلوسات الذكاء الاصطناعي ارتفع من 120 حالة بين أبريل 2023 و مايو 2025 إلى أكثر من 660 حالة بحلول ديسمبر، مع تسارع في التقارير اليومية. معظم هذه الحالات وقعت في مكاتب صغيرة أو من قبل ممثلين ذاتيّين، لكن المكاتب الكبيرة تواجه خطرًا أيضًا، خاصة عبر موظفين مبتدئين أو مساعدين قانونيين يستخدمون أدوات ذكاء اصطناعي دون رقابة. الحل لا يكمن في حظر الأدوات، بل في تدريب المحامين على اعتبار إخراجات الذكاء الاصطناعي نقطة بداية، لا نسخة نهائية. والحل الأقوى، كما يُظهر المثال، هو استخدام الذكاء الاصطناعي نفسه — بذكاء — للكشف عن أخطائه.

الروابط ذات الصلة