
초록
다수의 머신러닝 모델을 앙상블 형태로 결합하는 것은 앙상블을 구성하는 개별 모델들보다 훨씬 뛰어난 성능을 제공한다는 것이 잘 알려져 있다. 이는 각 모델이 서로 보완하여 보다 우수한 결정을 내릴 수 있기 때문이다. 단순히 모델을 결합하는 것뿐만 아니라, 여러 반복 과정을 통해 모델들이 서로 학습하는 자기주도적 앙상블 학습 방식을 제안한다. 의사라벨링 기반의 자기주도 학습 과정에서 개별 모델의 성능 향상뿐 아니라, 앙상블 자체가 타겟 도메인에 대한 지식을 습득하게 된다. 제안하는 자기주도적 앙상블 학습(SPEL) 방식의 일반성을 입증하기 위해 세 가지 음성 작업에 대한 실험을 수행하였다. 실험 결과는 SPEL이 기준 앙상블 모델보다 유의미하게 우수한 성능을 보임을 보여준다. 또한 개별 모델에 자기주도 학습을 적용하는 것은 상대적으로 효과가 낮음을 확인함으로써, 앙상블 내 모델들이 실제로 서로 학습하고 있음을 입증한다.