要約
深層畳み込みニューラルネットワーク(DCNNs)において、ポイントワイズ畳み込みのパラメータ数は、前の層からのフィルタ数と入力チャネル数の積により急速に増加する。この増加に対処するため、並列分岐構造を用いる新たな技術を提案する。各分岐は複数のフィルタを含み、入力チャネルの一部を処理する。DCNNの学習能力の低下を回避するため、連続するポイントワイズ畳み込みの途中層において、異なる分岐からのフィルタ出力をインターリーブする手法を提案する。提案手法の有効性を検証するために、EfficientNet、DenseNet-BC L100、MobileNet、MobileNet V3 Large といった最先端のDCNNに本手法を適用した。CIFAR-10、CIFAR-100、Cropped-PlantDoc、Oxford-IIIT Pet の各データセット上で、提案手法を用いた場合と用いない場合の性能を比較した。実験結果から、本手法を適用したDCNNは、初期から訓練した場合でも、元のEfficientNetおよびMobileNet V3 Largeアーキテクチャと同等のテスト精度を達成しつつ、最大90%のパラメータ削減および63%の浮動小数点演算量削減を実現したことが明らかになった。