IFQ-Net: 임베디드 비전을 위한 통합 고정점 양자화 네트워크

임베디드 장치에 깊은 모델을 배포하는 것은 딥러닝 기반 네트워크의 성공 이후 지속적으로 도전적인 문제로 남아왔다. 데이터를 낮은 비트의 고정소수점(fixed-point)으로 표현함으로써 메모리 사용량을 크게 절약할 수 있는 고정소수점 네트워크는 일반적으로 선호된다. 현재의 고정소수점 네트워크는 상대적으로 낮은 비트(예: 8비트)를 사용하고 있으나, 임베디드 장치에 필요한 수준의 메모리 절약은 여전히 부족하다. 반면, XNOR-Net 및 HWGQNet과 같은 양자화 딥 네트워크는 데이터를 1비트 또는 2비트로 양자화함으로써 더 큰 메모리 절약 효과를 얻을 수 있지만, 여전히 많은 양의 부동소수점(floating-point) 데이터를 포함하고 있다. 본 논문에서는 양자화 네트워크 내의 부동소수점 데이터를 고정소수점으로 변환함으로써 임베디드 비전 작업을 위한 고정소수점 네트워크를 제안한다. 또한, 변환 과정에서 발생하는 데이터 손실을 보완하기 위해, 여러 층(예: 합성곱, 배치 정규화, 양자화 층 등)에 걸쳐 부동소수점 연산을 통합하여 고정소수점으로 변환하는 방식을 제안한다. 이러한 통합 변환을 통해 얻어진 고정소수점 네트워크를 통합 고정소수점 양자화 네트워크(Integrated Fixed-point Quantization Networks, IFQ-Net)라 명명한다. 실험을 통해 IFQ-Net이 ImageNet 기준 유사한 정확도를 유지하면서 모델 크기 면에서 2.16배, 런타임 특징맵 메모리 사용량 면에서 18배의 메모리 절약 효과를 입증하였다. 또한 YOLOv2 기반으로 IFQ-Tinier-YOLO라는 얼굴 탐지기 모델을 설계하였으며, 이는 Tiny-YOLO 대비 모델 크기가 256배 작아진(246KB) 고정소수점 네트워크이다. 제안한 얼굴 탐지기의 성능은 Face Detection Data Set and Benchmark(FDDB)에서 탐지율 측면에서 뛰어난 성능을 보이며, Wider Face 데이터셋에서 소형 얼굴 탐지에 대한 정성적 결과에서도 우수한 성능을 입증하였다.