
要約
近年、深層ニューラルネットワークの学習を安定化させるために、さまざまな正規化層が提案されてきた。その中でも、グループ正規化(Group Normalization)は、層正規化(Layer Normalization)およびインスタンス正規化(Instance Normalization)の一般化であり、使用するグループ数に柔軟性をもたせたものである。しかし、最適なグループ数を決定するためには、試行錯誤に基づくハイパーパラメータチューニングが必要となり、その実験は時間的にもコストがかかる。本研究では、グループ数を設定する合理的な手法について検討する。まず、グループ数がグループ正規化層の勾配挙動に影響を与えることを発見した。この観察に基づき、勾配スケールを最適化して勾配降下法の収束を促進するための理想的なグループ数を理論的に導出した。本研究で提案するグループ数は、理論的根拠を持ち、ネットワークアーキテクチャに依存した適応性を有し、各層に対して層ごとに適切な値を自動的に提供可能である。提案手法は、多数のニューラルネットワークアーキテクチャ、タスク、データセットにおいて、従来の手法を上回る性能を示した。