デロイト、AI導入を強化する一方で政府報告書のAI誤情報問題で返金措置
コンサルティング大手デロイト(Deloitte)が、AIの誤った出力による政府契約の返金処理を抱えながらも、Anthropicとの大規模なAI導入契約を発表した。この出来事は、同社がAIへの依存を強める一方で、そのリスクと課題に直面している現実を浮き彫りにしている。 デロイトは、10月14日、同社の世界約50万人の従業員にAnthropicのチャットボット「Claude」を全社展開すると発表。同社とAnthropicは昨年提携しており、金融、医療、公共サービスなど規制の厳しい業界向けのコンプライアンス製品の開発を進める計画だ。また、会計士やソフトウェア開発者など、部門ごとのAIエージェント「パーソナ」の構築も検討している。デロイトのランジット・バワ氏は、「私たちの責任あるAIへのアプローチとAnthropicの理念が一致しており、今後10年で企業のあり方を変える可能性がある」と強調した。 一方で、その発表と同日、オーストラリア労働省がデロイトに、AIによる誤った情報が含まれた報告書の返金を命じたことが明らかになった。同省が43万9000豪ドルで発注した「独立監査レビュー」は、複数の存在しない学術論文を引用するなど重大な誤りを含んでおり、修正版が先週公開された。デロイトは契約の最終支払いを返還する措置を取ることになった。 このタイミングの悪さは、同社のAI戦略に対する疑問を助長する。近年、AIの誤った情報(ハルシネーション)によるトラブルは相次いでいる。5月にはシカゴ・サンタイムズが、AIが生成した架空の書籍タイトルを含む読書リストを掲載。アマゾンのAIツール「Q Business」も初年度から精度の問題が指摘されている。また、Anthropic自身も、音楽出版社との法的紛争で、自社のAIが生成した引用を用いたとして、法務担当者が謝罪している。 デロイトの動きは、AIの実用化が進む中で、技術の可能性とそのリスクが共存する現実を象徴している。企業はAIを推進しつつも、正確性と信頼性の確保が、今後の最大の課題となっている。
