
音楽の記号的多声楽(ポリフォニック・シンボリック・ミュージック)に対する学習ベースのモデリングに向けた高品質なデータセットは、言語モデリングや画像分類などの分野と比べて、スケール的にも入手しにくい状況にあります。ディープラーニングアルゴリズムは、消費者向けアプリケーションにおけるインタラクティブ音楽生成技術の広範な活用に大きな可能性を秘めていますが、大規模なデータセットの不足が、一貫して高品質な出力を生成できるアルゴリズムの開発を妨げる大きな課題となっています。本研究では、専門性の狭いモデルが、高品質かつスケーラブルな合成データの供給源として機能しうると提案し、新規の学習ベースアルゴリズムにより生成された500曲分のデータセット「JS Fake Chorales」をMIDI形式でオープンソース化しました。アルゴリズムの連続的な出力結果を用い、選りすぐりのデータを用いないことで、このデータセットを必要に応じてさらにスケーラブルに拡張できる可能性を検証しています。また、聴取者にとって最も公平な評価が可能なオンライン実験を実施した結果、参加者たちは実際のJ.S.バッハ作曲の合唱曲と「JS Fake Chorales」とを区別する際、平均してランダムな推測よりもわずか7%程度の精度にとどまりました。さらに、実験から得られた匿名化されたデータもMIDIサンプルとともに公開しています。最後に、合成曲を用いた多声楽モデリング研究の有効性を検証するためのアブレーションスタディを実施した結果、既知のアルゴリズムを用いて「JSB Chorales」データセットの訓練セットに「JS Fake Chorales」を追加するだけで、従来の最先端技術よりも検証セットの損失(validation set loss)を改善できることを示しました。