
要約
深層ニューラルネットワークの学習に必要なデータのラベリング作業は、現行の最先端の結果を得るためには数百万のラベルが必要であり、その作業は困難で退屈です。大量のラベリング済みデータへの依存を軽減するためには、非監督学習技術を用いて階層的な特徴を利用する方法があります。本研究では、k-meansクラスタリングアルゴリズムの強化版に基づく深層畳み込みネットワークの学習方法を提案します。この方法は、類似フィルタという形での相関パラメータ数を削減し、テスト分類精度を向上させます。我々はこのアルゴリズムを畳み込みk-meansクラスタリングと呼びます。さらに、深層畳み込みニューラルネットワークの各層間の接続を学習することで、少量のラベリング済みデータで学習できる能力が向上することを示しています。実験結果から、提案したアルゴリズムは非監督的にフィルタを学習する他の手法よりも優れていることが確認されました。具体的には、STL-10データセットで74.1%のテスト精度、MNISTデータセットで0.5%のテスト誤差率を達成しました。