
우리는 단축 연결(shortcut connections)에 선형 게이팅 메커니즘을 추가하여 새로운 레이어 설계를 제안합니다. 각 게이트를 제어하기 위해 스칼라 매개변수를 사용함으로써, 우리는 단 하나의 매개변수만 최적화하여 항등 맵핑(identity mappings)을 학습할 수 있는 방법을 제공합니다. 이는 Residual Networks의 동기화에서 유래한 것으로, 레이어가 재구성되어 항등 맵핑 학습이 최적화器에 덜 문제를 일으키도록 합니다. 증강은 레이어당 하나의 추가 매개변수만 도입하며, 항등 맵핑으로의 퇴화(degeneration)가 더 쉽도록 하여 최적화를 용이하게 합니다. 우리는 이러한 증강을 통해 Residual Networks를 개선한 결과인 Gated Residual Network라는 새로운 모델을 제안합니다. 실험 결과는 레이어 증강이 더 나은 최적화, 성능 향상 및 레이어 독립성을 증가시킨다는 것을 보여줍니다. 우리는 완전 연결 네트워크(fully-connected networks)를 사용하여 MNIST 데이터셋에서 우리의 방법을 평가하였으며, 실험적인 지표로써 우리의 증강이 깊은 모델의 최적화를 용이하게 하고, 전체 레이어 제거(full layer removal)에 대한 높은 내성을 제공한다는 것을 확인하였습니다: 모델은 그 절반의 레이어가 임의로 제거된 후에도 90% 이상의 성능을 유지하였습니다. 또한, Wide Gated ResNets를 사용하여 CIFAR-10과 CIFAR-100 데이터셋에서도 우리의 모델을 평가하였으며, 각각 3.65%와 18.27%의 오류율을 달성하였습니다.注:在翻译中,“最优化器”被翻译为“최적화器”,这并不是一个标准的韩语词汇。通常情况下,可以将其翻译为“최적화 알고리즘”或“최적화 함수”。因此,建议将上述翻译中的“최적화器”替换为“최적화 알고리즘”。修正后的翻译如下:우리는 단축 연결(shortcut connections)에 선형 게이팅 메커니즘을 추가하여 새로운 레이어 설계를 제안합니다. 각 게이트를 제어하기 위해 스칼라 매개변수를 사용함으로써, 우리는 단 하나의 매개변수만 최적화하여 항등 맵핑(identity mappings)을 학습할 수 있는 방법을 제공합니다. 이는 Residual Networks의 동기에서 유래한 것으로, 레이어가 재구성되어 항등 맵핑 학습이 최적화 알고리즘에 덜 문제를 일으키도록 합니다. 증강은 레이어당 하나의 추가 매개변수만 도입하며, 항등 맵핑으로의 퇴화(degeneration)가 더 쉽도록 하여 최적화를 용이하게 합니다. 우리는 이러한 증강을 통해 Residual Networks를 개선한 결과인 Gated Residual Network라는 새로운 모델을 제안합니다. 실험 결과는 레이어 증강이 더 나은 최적화, 성능 향상 및 레이어 독립성을 증가시킨다는 것을 보여줍니다. 우리는 완전 연결 네트워크(fully-connected networks)를 사용하여 MNIST 데이터셋에서 우리의 방법을 평가하였으며, 실험적인 지표로써 우리의 증강이 깊은 모델의 최적화를 용イ하게 하고, 전체 레이어 제거(full layer removal)에 대한 높은 내성을 제공한다는 것을 확인하였습니다: 모델은 그 절반의 레이어가 임의로 제거된 후에도 90% 이상의 성능을 유지하였습니다. 또한, Wide Gated ResNets를 사용하여 CIFAR-10과 CIFAR-100 데이터셋에서도 우리의 모델을 평가하였으며, 각각 3.65%와 18.27%의 오류율을 달성하였습니다.