2달 전

PLOP: 지속적인 의미 분할을 위한 잊지 않는 학습

Douillard, Arthur ; Chen, Yifu ; Dapogny, Arnaud ; Cord, Matthieu
PLOP: 지속적인 의미 분할을 위한 잊지 않는 학습
초록

딥러닝 접근법은 현재 컴퓨터 비전 작업, 예를 들어 의미 분할과 같은 작업을 처리하는 데 널리 사용되고 있으며, 대규모 데이터셋과 상당한 계산 능력을 필요로 합니다. 의미 분할을 위한 연속 학습(CSS)은 새로운 클래스를 순차적으로 추가하여 기존 모델을 업데이트하는 새로운 추세입니다. 그러나 연속 학습 방법은 일반적으로 재앙적 잊어버림(catastrophic forgetting)에 취약합니다. 이 문제는 CSS에서 더욱 악화되는데, 각 단계마다 이전 반복에서의 오래된 클래스가 배경으로 축소되기 때문입니다. 본 논문에서는 특성 수준에서 장거리 및 단거리 공간 관계를 보존하는 다중 스케일 풀링 디스틸레이션 방식인 로컬 POD(Local POD)를 제안합니다. 또한, 오래된 모델이 예측한 클래스에 대한 엔트로피 기반 가짜 라벨링(pseudo-labelling)을 설계하여 배경 변화를 처리하고 오래된 클래스의 재앙적 잊어버림을 피하기 위해 노력하였습니다. 우리의 접근법인 PLOP은 기존 CSS 시나리오뿐만 아니라 새로 제안된 어려운 벤치마크에서도 현행 최고 수준의 방법들을 크게 능가하는 성능을 보였습니다.

PLOP: 지속적인 의미 분할을 위한 잊지 않는 학습 | 최신 연구 논문 | HyperAI초신경