Back to Headlines

AI 도입은 UK 사법 시스템의 구조적 문제를 해결할 수 있을까? 과도한 예산 삭감의 그늘 아래 숨겨진 위험

4일 전

영국의 사법 시스템은 수십 년간의 예산 삭감으로 인해 심각한 위기에 빠져 있다. 대기 사건이 늘어나고, 법정 일정이 물리적 문제로 취소되는 상황이다. 영국은 엔터프라이즈·웨일스, 스코틀랜드, 북아일랜드 등 세 개의 별도 법체계로 구성되어 있어 통합 관리가 어렵다. 최근 토니 블레어 인스티튜트와 정책 엑스체인지 등 정치적 영향력 있는 단체들이 인공지능(AI)을 공공부문 개혁의 해법으로 제시하며, 행정 업무의 자동화로 법조인들이 피해자와의 인간적 소통에 더 많은 시간을 쓸 수 있도록 하자는 주장이 제기됐다. 브렉시트 이후 라이버 정부는 AI를 ‘성장과 생활 수준 향상’의 핵심 도구로 삼으며 공공서비스 전반에 AI 도입을 선언했다. 현재 주목받는 AI 기술은 대규모 언어 모델(LLM)로, 챗GPT와 같은 챗봇 기술의 기반이다. 기존의 기술보조 검토(TAR)나 위험 평가 알고리즘처럼, AI는 이미 문서 관련성 예측, 보호관찰 및 이민 사례의 위험 점수화 등에 사용돼 왔다. 그러나 이들 시스템은 편향을 심화시키며 취약계층의 삶을 결정짓는 데 부정적 영향을 미쳤다. 반면, 최근의 LLM 기반 도구는 회의 기록 작성, 법적 자료 요약, 일정 관리 등 행정 업무를 간소화하는 데 활용된다. 런던 올드 베일리에서는 AI를 통해 증거 개요를 처리하면서 5만 파운드의 비용 절감을 기록했다. 하지만 이러한 도구의 효과는 인간 감시와 전문 판단이 충분히 이루어질 때에만 가능하다. 내무부의 소규모 시범 프로젝트에서 LLM이 난민 케이스 문서를 요약한 결과, 9%는 정확하지 않았고, 23%의 사용자는 요약 내용에 확신을 갖지 못했다. 이는 AI의 ‘허구 생성’(hallucination) 위험을 보여준다. 2025년 7월, 법무부는 AI 행동 계획을 발표하며 95,000명의 사법 시스템 종사자에게 AI 도구를 도입할 계획을 밝혔다. 이 계획은 AI가 인간 판단을 보완해야 한다고 강조하고, 윤리 프레임워크와 공개 웹사이트를 마련하며 신중한 접근을 표명했지만, 여전히 감시되지 않은 위험 평가 도구 사용을 포함하고 있다. 심지어 2025년 6월, 영국의 고위 판사가 LLM 도구 사용을 경고하며, AI가 가짜 정보를 생성할 수 있다고 지적했다. 실제로 세계 여러 지역에서 AI 생성 자료가 법정에 제출된 사례가 발생했다. 이러한 도구는 자원이 풍부한 부문에서는 유용할 수 있지만, 취약 계층이 많은 부문에서는 오히려 불공정을 심화시킬 수 있다. 이전의 디지털화 시도도 마찬가지였다. 온라인 유죄 인정 절차나 자동 범죄 처벌 시스템은 오히려 소외된 여성들이 자신이 범죄를 저지르지 않았음에도 유죄를 인정하게 만들었다. 결국, AI 도입은 사법 시스템의 근본적인 문제인 자원 부족과 불균형을 해결하지 못한다. 오히려 시스템의 구조적 문제를 가리기 위해 사용될 위험이 크다. 진정한 해결책은 AI보다는 적절한 투자와 인간 중심의 사법 체계 복원에 있다.

Related Links