11日前

PHNNs:パラメータ化超複素畳み込みを用いた軽量ニューラルネットワーク

Eleonora Grassucci, Aston Zhang, Danilo Comminiello
PHNNs:パラメータ化超複素畳み込みを用いた軽量ニューラルネットワーク
要約

ハイパーコンプレックスニューラルネットワークは、クリフォード代数の性質を活用することで、パラメータ総数を削減しつつも優れた性能を維持できることを実証している。近年、効率的なパラメータ化されたクロネッカー積を導入することで、ハイパーコンプレックス線形層の性能がさらに向上している。本研究では、ハイパーコンプレックス畳み込み層のパラメータ化を定義し、軽量かつ効率的な大規模モデルとして、パラメータ化されたハイパーコンプレックスニューラルネットワーク(PHNNs)の族を提案する。本手法は、畳み込み規則およびフィルタの構成を、厳密に事前に定義されたドメイン構造に従わずに、データから直接学習する。PHNNsは、代数規則が事前に設定されていなくても、1次元から$n$次元までの任意のユーザー定義またはチューニング可能なドメインで柔軟に動作可能である。この柔軟性により、例えば3次元入力(カラー画像など)に対してクォータニオンニューラルネットワークが追加次元を付加するのとは異なり、多変数入力を自然なドメインで処理できる。その結果、本研究で提案するPHNNsの族は、実数領域における類似モデルと比較して、自由パラメータ数が$1/n$にまで削減される。本手法の汎用性を、さまざまな画像データセットおよび音声データセットを用いた実験を通じて検証した結果、実数およびクォータニオン値モデルを上回る性能を示した。実装コードは、以下のURLで公開されている:https://github.com/eleGAN23/HyperNets。

PHNNs:パラメータ化超複素畳み込みを用いた軽量ニューラルネットワーク | 最新論文 | HyperAI超神経