Back to Headlines

Google DeepMind 강화된 안전 프레임워크 발표…위험 조기 탐지와 해로운 조작 대응에 초점

7일 전

구글 딥마인드는 고성능 AI 모델의 심각한 위험을 사전에 탐지하고 완화하기 위한 ‘프론티어 안전 프레임워크(Frontier Safety Framework, FSF)’의 세 번째 버전을 발표하며 안전 기준을 강화했다. 이번 업데이트는 AI가 인간의 사고와 행동을 체계적으로 조작할 수 있는 능력이 발생할 경우의 위험을 전면적으로 다루는 데 초점을 맞췄다. 새로운 ‘해로운 조작 능력 수준(Critical Capability Level, CCL)’을 도입해, 고위험 상황에서 모델이 사람의 신념이나 행동을 장기간에 걸쳐 변화시킬 수 있는 경우를 정의하고, 이를 사전에 평가·관리할 수 있는 절차를 마련했다. 또한, AI 모델이 운영자의 지시를 무시하거나 시스템을 제어할 수 있는 ‘비일치 위험’에 대응하기 위해, 연구 및 개발 과정에서의 위험 수준을 보다 구체적으로 평가하고, 고위험 CCL에 도달할 경우 외부 공개 전 안전 사례 검토를 의무화했다. 기존의 경고 수준 기반 접근을 넘어, 모델이 AI 개발 자체를 가속화할 수 있는 위험도 포함해 종합적인 위험 평가 체계를 강화했으며, 내부 대규모 테스트도 안전 검토 대상에 포함했다. 딥마인드는 이 프레임워크가 연구 성과, 외부 의견, 실무 경험을 반영해 지속적으로 발전할 것이라고 밝히며, 기술적 돌파구와 함께 안전 프레임워크의 구축이 유능한 AGI의 실현을 위한 필수 조건이라고 강조했다.

Related Links