7일 전

SafeML: 통계적 차이 측정을 통한 기계학습 분류기의 안전성 모니터링

Koorosh Aslansefat, Ioannis Sorokos, Declan Whiting, Ramin Tavakoli Kolagari, Yiannis Papadopoulos
SafeML: 통계적 차이 측정을 통한 기계학습 분류기의 안전성 모니터링
초록

기계학습(ML)의 안전성과 해석 가능성 보장은 데이터 기반 응용이 전통적으로 높은 안전 기준을 요구하는 안전 핵심 영역으로 확장되면서 점점 더 중요한 주제가 되고 있다. 이러한 영역에서는 기존의 접근 불가능한 블랙박스 시스템에 대한 단순 테스트 중심의 접근 방식만으로는 충분하지 않다. 특히 안전성과 보안 간의 상호작용은 핵심적인 과제이며, 보안 위반은 안전성의 훼손으로 이어질 수 있기 때문이다. 본 논문은 기계학습 시스템 운영 중에 적용 가능한 통합된 보호 개념을 통해 안전성과 보안 문제를 동시에 해결하는 데 기여한다. 이 개념은 경험적 누적분포함수(ECDF)의 거리 측도를 기반으로 데이터 기반 시스템의 행동과 운영 환경을 능동적으로 모니터링하는 방식이다. 우리는 XOR, Spiral, Circle과 같은 추상적 데이터셋과 시뮬레이션된 네트워크 트래픽을 위한 보안 전용 데이터셋(CICIDS2017)을 활용하여 분포 변화 탐지 기법(콜모고로프-스미르노프, 쿠이퍼, 앤더슨-다링, 와서스타인, 혼합 와서스타인-앤더슨-다링 측도 포함)을 적용하여 실험을 수행하였다. 초기 결과는 제안된 방법이 ML 컴포넌트의 응용 환경이 안전성-보안 측면에서 유효한지 여부를 탐지하는 기반을 제공할 수 있음을 시사한다. 초기 코드와 실험 결과는 다음 URL에서 확인 가능하다: https://github.com/ISorokos/SafeML.

SafeML: 통계적 차이 측정을 통한 기계학습 분류기의 안전성 모니터링 | 최신 연구 논문 | HyperAI초신경