法律界、AIの誤情報対策に「AI対AI」の新戦略へ
法律事務所Cozen O'Connorは、AIによる虚偽の判例引用(ハルシネーション)のリスクに対処するため、AI検出ツールの導入を進めている。同事務所は以前から公開型チャットボット(ChatGPT、Claude、Geminiなど)の使用を禁止していたが、2023年9月、2人の弁護士がAIに依頼して作成した書類に架空の判例を含め、ネバダ州の裁判所から制裁を受けるというトラブルが発生。裁判所は、弁護士たちに弁護士会や旧所属大学に説明書を提出するか、訴訟から降板してそれぞれ2500ドルの罰金を支払うかの選択を迫った。最終的に両者は説明書提出を選択し、関係者を含めた謝罪と講演活動を実施。また、AIを使用した弁護士は解雇された。 この出来事を受け、同事務所はAIによる虚偽情報の検出ツール「Clearbrief」の導入をテストしている。このソフトウェアは、Microsoft Wordのプラグインとして動作し、自然言語処理技術で引用された判例や事実が実際に存在するかをチェック。誤った引用やタイプミス、根拠と異なる主張も自動で指摘する。さらに、検証履歴を残すことで、弁護士がどのタイミングでチェックを行ったかを証明できる仕組みも提供。パートナーが署名する書類の責任は法的に本人にあり、そのため「証跡」の確保が重要とされる。 法律分野では、AIのハルシネーションが広がる中、専門家が集計したデータによると、2023年4月から2025年5月までに120件以上、その後は1日4~5件のペースで報告が増加。多くは個人で訴訟を行う当事者や中小事務所の弁護士によるものだが、大手事務所でも若手弁護士や事務員、専門家がAIに依頼した結果、誤った引用が混入するケースが相次いでいる。 一方、Thomson ReutersやLexisNexisといった法律情報大手は、自社の信頼性の高い判例データベースを「閉鎖型AI」の基盤にし、外部のインターネットデータを学習対象にしないことでハルシネーションリスクを大幅に低減している。LexisNexisはAIスタートアップHarveyと提携し、世界最大級の法律データベースを生成型AIに供給。また、OpenAIやAnthropicといったモデル提供企業とも協力し、データソースを制限。ユーザーは回答の根拠となる情報や履歴を確認できる。 結局のところ、法律現場でのAI活用の鍵は、「AI出力をそのまま使うのではなく、出発点として扱い、さらに検証を行う」こと。そして、その検証プロセスをAIで補強するという「AI対AI」のアプローチが、現実的な解決策として浮上している。
