
물체 인식의 실제 응용 사례는 종종 단일 플랫폼에서 여러 작업을 해결해야 하는 경우가 많습니다. 네트워크 미세 조정(fine-tuning)의 표준 패러다임 하에서는 각 작업마다 완전히 새로운 CNN이 학습되며, 최종 네트워크 크기는 작업 복잡성과 독립적입니다. 이는 낭비적인 접근 방식으로, 간단한 작업은 더 복잡한 작업보다 작은 네트워크를 필요로 하기 때문이며, 동시에 해결할 수 있는 작업 수를 제한합니다. 이러한 문제들을 해결하기 위해, 우리는 전이 학습 절차인 NetTailor를 제안합니다. 이 방법에서는事前训练的CNN的层被用作可以与小型任务特定层组合以生成新网络的通用模块。除了最小化分类错误之外,新网络还通过1) 块上的软注意力机制和2) 复杂度正则化约束的结合,来模仿强大的无约束CNN的内部激活并最小化其复杂度。这样一来,NetTailor不仅可以调整网络权重,还可以适应目标任务的网络架构。实验表明,适应简单任务(如字符识别或交通标志识别)的网络比适应困难任务(如细粒度识别)的网络显著减小。更重要的是,由于该过程的模块化性质,这种网络复杂度的降低是在不牺牲跨任务参数共享或分类准确性的情况下实现的。修正后的翻译:물체 인식의 실제 응용 사례는 종종 단일 플랫폼에서 여러 작업을 해결해야 하는 경우가 많습니다. 네트워크 미세 조정(fine-tuning)의 표준 패러다임 하에서는 각 작업마다 완전히 새로운 CNN이 학습되며, 최종 네트워크 크기는 작업 복잡성과 독립적입니다. 이는 낭비적인 접근 방식으로, 간단한 작업은 더 복잡한 작업보다 작은 네트워크를 필요로 하기 때문이며, 동시에 해결할 수 있는 작업 수를 제한합니다. 이러한 문제들을 해결하기 위해, 우리는 전이 학습 절차인 NetTailor를 제안합니다. 이 방법에서는 사전 훈련된 CNN의 레이어들이 일반 모듈로서 사용되어 작은 태스크 특화 레이어와 결합하여 새로운 네트워크를 생성할 수 있습니다. 분류 오류를 최소화하는 것뿐만 아니라, 새로운 네트워크는 강력한 제약 없는 CNN의 내부 활성화를 모방하고 그 복잡성을 최소화하기 위해 1) 블록 위의 소프트 어텐션 메커니즘과 2) 복잡도 정규화 제약 조건을 결합하여 훈련됩니다. 이렇게 함으로써 NetTailor는 네트워크 구조뿐만 아니라 가중치도 목표 태스크에 맞게 조정할 수 있습니다. 실험 결과, 문자 인식이나 교통 표지판 인식과 같은 간단한 태스크에 적응된 네트워크는 세밀한 인식(fine-grained recognition)과 같은 어려운 태스크에 적응된 네트워크보다 현저히 작아지는 것으로 나타났습니다. 더욱 중요한 것은, 해당 절차의 모듈화 성질 덕분에 이러한 네트워크 복잡도 감소가 태스크 간 매개변수 공유나 분류 정확도를 저하시키지 않고 이루어진다는 것입니다.