2달 전

밀집 연결된 합성곱 신경망

Gao Huang; Zhuang Liu; Laurens van der Maaten; Kilian Q. Weinberger
밀집 연결된 합성곱 신경망
초록

최근 연구에서는 입력에 가까운 층과 출력에 가까운 층 사이에 더 짧은 연결이 있는 경우 컨볼루션 네트워크가 훨씬 깊어지고, 정확도가 높아지며, 학습 효율성이 향상된다는 점을 보여주었습니다. 본 논문에서는 이러한 관찰을 바탕으로 각 층을 피드포워드 방식으로 모든 다른 층에 연결하는 Dense Convolutional Network (DenseNet)를 소개합니다. 전통적인 L개의 층을 가진 컨볼루션 네트워크는 L개의 연결을 가지며, 각 층과 그 다음 층 사이에 하나의 연결이 있습니다. 반면에 우리의 네트워크는 L(L+1)/2 개의 직접 연결을 가지며, 각 층은 이전 모든 층의 특징 맵들을 입력으로 사용하고, 자신의 특징 맵들은 이후 모든 층의 입력으로 사용됩니다. DenseNets는 다음과 같은 강력한 장점을 가지고 있습니다: 그래디언트 소실 문제를 완화하고, 특징 전파를 강화하며, 특징 재사용을 유도하며, 매개변수 수를 크게 줄입니다. 우리는 제안된 아키텍처를 네 가지 경쟁력 있는 객체 인식 벤치마크 작업(CIFAR-10, CIFAR-100, SVHN, 그리고 ImageNet)에서 평가하였습니다. DenseNets는 대부분의 작업에서 기존 최고 성능보다显著한 개선을 보였으며, 높은 성능을 달성하기 위해 필요한 계산량이 적습니다. 코드와 사전 학습된 모델은 https://github.com/liuzhuang13/DenseNet 에서 제공됩니다.注:在最后一句中,“显著”一词为中文,可能是误输入。正确的韩文翻译应该是“유의미한”。以下是修正后的版本:DenseNets는 대부분의 작업에서 기존 최고 성능보다 유의미한 개선을 보였으며, 높은 성능을 달성하기 위해 필요한 계산량이 적습니다. 코드와 사전 학습된 모델은 https://github.com/liuzhuang13/DenseNet 에서 제공됩니다.

밀집 연결된 합성곱 신경망 | 최신 연구 논문 | HyperAI초신경