
要約
グループ畳み込みニューラルネットワーク(G-CNNs)は、幾何学的な帰納バイアスを組み込むことで、パラメータ効率とモデル精度の向上が示されています。本研究では、正規のG-CNNによって学習された表現の特性を調査し、グループ畳み込みカーネルに相当なパラメータ冗長性があることを示しました。この結果は、サブグループ間で畳み込みカーネルを共有することによるさらなる重みの結合を促しています。この目的のために、サブグループとチャネル次元で分離可能な畳み込みカーネルを導入します。任意のアフィンリー群に対する同変性を得るためには、分離可能な畳み込みカーネルの連続的なパラメータ化を提供します。我々は複数のビジョンデータセットにおいて手法を評価し、重み共有が性能向上と計算効率向上につながることを示しました。多くの設定において、分離可能なG-CNNは非分離可能な対応物よりも優れた性能を発揮しながら、その訓練時間の一部しか使用していません。さらに、計算効率の向上により、$\mathrm{Sim(2)}$群;すなわち拡大・回転・並進変換群に対するG-CNNの同変性を実装することが可能となりました。$\mathrm{Sim(2)}$-同変性は考慮されたすべてのタスクにおける性能向上に寄与しています。注:「アフィンリー群」(affine Lie groups)や「$\mathrm{Sim(2)}$群」(the group of dilations, rotations and translations)などの専門用語については一般的な日本語訳を使用しましたが、必要に応じて原文も併記しています。