
要約
複数の機械学習モデルをアンサンブルとして統合することは、そのアンサンブルを構成する個々のモデルと比較して優れた性能を達成することが知られている。これは、モデル同士が互いに補完し合い、より優れた意思決定を可能にするためである。単にモデルを組み合わせるのではなく、本研究では、複数の反復処理を通じてモデルが互いに学び合う自己適応的アンサンブル学習スキーム(Self-Paced Ensemble Learning, SPEL)を提案する。この自己適応的学習プロセスでは、仮ラベル化(pseudo-labeling)に基づき、個々のモデルの性能向上に加えて、アンサンブル自体がターゲットドメインに関する知識を獲得することができる。SPELスキームの汎用性を示すために、3つの音声認識タスクにおいて実験を実施した。実験結果から、SPELがベースラインのアンサンブルモデルを著しく上回ることが明らかになった。さらに、個々のモデルに対して自己適応的学習を適用する手法は、それほど効果的でないことも示された。これは、アンサンブル内のモデルが実際に互いに学び合っているという主張を裏付けている。