2ヶ月前
形態ネットワーク:形態ニューロンでどこまで行けるか
Ranjan Mondal; Sanchayan Santra; Soumendu Sundar Mukherjee; Bhabatosh Chanda

要約
形態学的ニューロン、すなわち学習可能な構造要素を持つ膨張や収縮などの形態学的演算子は、その単純さにもかかわらず強力な機能を提供することから、研究者たちの関心を集めています。これらの演算子は非線形ツールとして知られていますが、特定の問題に対して演算子の列と構造要素を決定することは容易ではありません。従って、既存の研究では主にこの部分に焦点を当て、一般的な演算子としての適用性には深く立ち入っていませんでした。いくつかの研究では、入力が特徴ベクトルである場合に形態学的ニューロンを分類(および回帰)ネットワークの一環として利用しようと試みましたが、これらは主に特定の問題に焦点を当てており、一般的な理論的な分析には踏み込んでいません。本研究では、形態学的ニューロンを理論的に分析し、それらが以前に考えられていたよりも遥かに強力であることを示しました。提案した形態学的ブロックは、膨張と収縮の後にそれらの線形結合を行うもので、ヒンジ関数の和を表します。既存の研究では、ヒンジ関数が分類や回帰問題において良好な性能を発揮することが示されています。さらに、2つの形態学的ブロックですら任意の連続関数を近似することができます。しかし、本論文での理論的な分析を容易にするために、構造要素が全体の入力に対して作用する1次元版の演算子に制限しています。実験評価でも示されているように、形態学的ニューロンを使用して構築されたネットワークは同様の構造を持つニューラルネットワークよりも効果的であることが確認されました。