
要約
効果的な畳み込みニューラルネットワークは、大量のラベル付きデータで訓練されます。しかし、大規模なラベル付きデータセットを作成することは非常にコストがかかり、時間もかかる作業です。半教師あり学習は、限られた量のラベル付きデータが利用可能な場合に、非ラベル付きデータを使用してより高い精度でモデルを訓練します。本論文では、畳み込みニューラルネットワークを用いた半教師あり学習の問題を取り扱います。ランダム化されたデータ拡張、ドロップアウト、およびランダムマックスプーリングなどの技術は、勾配降下法を使用して訓練される分類器に対して更好的な汎化性能と安定性を提供します。これらの技術の非決定的な特性により、同一サンプルがネットワークを通じて複数回通過する際に異なる予測結果が出力される可能性があります。私たちは、これらの方法の確率的性質を利用し、訓練サンプルがネットワークを通じて複数回通過した際の予測結果の差異を最小化する無教師損失関数を提案します。提案手法をいくつかのベンチマークデータセットで評価しました。