
摘要
将多个机器学习模型组合成集成学习(ensemble)已被证实能够显著优于构成该集成的各个独立模型。其原因在于,不同模型之间可以相互补充,从而做出更优的决策。与传统的简单模型组合方式不同,本文提出一种自 paced 集成学习(Self-Paced Ensemble Learning, SPEL)框架,其中各模型在多个迭代过程中相互学习。在基于伪标签(pseudo-labeling)的自 paced 学习过程中,除了提升各个模型自身的性能外,该集成系统还能逐步获取目标域的知识。为验证所提 SPEL 方法的通用性,我们在三个音频处理任务上进行了实验。实验结果表明,SPEL 显著优于传统的基准集成模型。此外,我们还发现,仅对单个模型应用自 paced 学习的效果较差,这进一步说明:在集成框架中,模型之间确实存在相互学习和知识共享的机制。