
기반 모델링을 위한 고품질의 다성음 서사 음악 데이터셋은 언어 모델링이나 이미지 분류와 같은 다른 분야에 비해 여전히 대규모로 쉽게 접근하기 어려운 상황이다. 딥러닝 알고리즘은 소비자 애플리케이션에서 상호작용형 음악 생성 기술의 광범위한 활용 가능성을 보여주고 있으나, 대규모 데이터셋의 부족은 일관되게 고품질 출력을 생성할 수 있는 알고리즘 개발의 주요 장벽으로 남아 있다. 본 연구에서는 전문성이 제한된 모델이 고품질의 확장 가능한 합성 데이터를 생성하는 데 유용할 수 있다고 제안하며, 새로운 학습 기반 알고리즘을 통해 생성된 500개의 작품을 MIDI 형식으로 공개한다. 이 데이터셋은 알고리즘의 연속적인 출력을 활용하여 선택적 추출(체리피킹)을 피함으로써, 필요 시 데이터셋을 추가로 확장할 수 있는 잠재력을 검증한다. 또한 청취자에게 가능한 한 공정한 평가를 제공하기 위해 온라인 실험을 실시한 결과, 응답자들은 JS Bach가 작곡한 실제 교회합창곡과 JS Fake Chorales를 구별하는 데 평균적으로 랜덤 추측보다 7% 높은 성능을 보였다. 더불어 실험에서 수집한 익명화된 데이터도 MIDI 샘플과 함께 공개한다. 마지막으로, 합성 작품이 다성음 음악 모델링 연구에 효과적으로 활용될 수 있음을 입증하기 위해 아블레이션 스터디를 수행하였으며, 기존 알고리즘을 사용하여 JSB Chorales 데이터셋의 검증 세트 손실을 기존 최고 성능을 초월할 수 있음을 확인하였다. 이는 단순히 학습 데이터셋에 JS Fake Chorales를 증강함으로써 달성된 결과이다.