HyperAIHyperAI

Command Palette

Search for a command to run...

律师用AI对抗AI:如何用人工智能遏制AI幻觉

面对人工智能生成的“幻觉”——即虚构案例和错误引用,律师事务所正采取越来越严密的应对措施。尽管许多律所禁止使用ChatGPT、Claude或Gemini等公开聊天机器人起草法律文件,但律师仍可能私下使用。为此,Cozen O'Connor律所引入了一款名为Clearbrief的AI检测工具,专门扫描法律文书中的虚假案例和引用,相当于为法律写作增加了“事实核查”功能。 此前,该所两名律师因使用ChatGPT起草文件并引用了完全虚构的判例,被法官处罚:要么被移出案件并每人支付2500美元罚款,要么向母校和司法机构道歉,并承诺参与职业操守讲座。最终两人选择了后者,且涉事律师被解雇。 法律界对AI幻觉的关注日益加剧。法律数据分析师Damien Charlotin追踪发现,从2023年4月到2025年5月,已有超过660起法院发现法律文件中存在AI虚构内容的案例,且数量呈加速上升趋势,每日新增四至五起。多数案例来自个体律师或小型律所,但大型律所的问题往往源于初级律师、法务助理或外部顾问在起草或格式化过程中引入错误。 为应对风险,法律科技公司正推动“封闭式AI”模式。Thomson Reuters和LexisNexis等老牌法律信息服务商强调,其AI工具仅基于内部经过严格审核的案例库和法律文献运行,显著降低了虚构内容的风险。LexisNexis甚至与估值达80亿美元的法律科技公司Harvey合作,将自身庞大的法律数据库接入Harvey的生成式AI系统,并限制模型仅从可信来源调用数据,同时保留操作日志供追溯。 Clearbrief则提供一款Word插件,利用自然语言处理技术识别虚构引用,标记错误事实,并链接真实案例来源。Cozen O'Connor正在测试其“引用核查报告”功能,可在文件提交前生成审查记录。合伙人可借此证明已履行核查义务,一旦被质疑,可出示完整的审查轨迹。 未来,法律行业仍难以彻底消除AI幻觉。关键应对策略仍是:将AI输出视为初稿而非终稿,同时通过更多AI工具进行交叉验证。正如一位律所负责人所言:“对抗AI幻觉的最好办法,就是用更多AI。”

相关链接