بيانات JS Fake Chorales: مجموعة بيانات اصطناعية موسيقية متعددة الأصوات مصحوبة بتعليقات بشرية

تظل مجموعات البيانات عالية الجودة الخاصة بالنمذجة القائمة على التعلم للموسيقى الرمزية متعددة الأصوات أقل توافرًا على نطاق واسع مقارنةً ب領域ات أخرى مثل نمذجة اللغة أو تصنيف الصور. تُظهر خوارزميات التعلم العميق إمكانات كبيرة في تمكين الاستخدام الواسع النطاق للتكنولوجيا التفاعلية لإنشاء الموسيقى في التطبيقات الاستهلاكية، لكن نقص مجموعات البيانات الضخمة يظل عائقًا رئيسيًا أمام تطوير خوارزميات قادرة على إنتاج نواتج عالية الجودة بشكل متسق. نقترح أن النماذج ذات الخبرة الضيقة يمكن أن تُستخدم كمصدر لبيانات اصطناعية عالية الجودة قابلة للتوسع، ونُعلن عن إتاحة مجموعة بيانات "JS Fake Chorales" مفتوحة المصدر، والتي تتضمن 500 قطعة موسيقية تم إنشاؤها بواسطة خوارزمية جديدة قائمة على التعلم، متوفرة بصيغة MIDI. وقد قمنا بأخذ المخرجات المتتالية من الخوارزمية، مع تجنب اختيار العينات المُختارة بعناية (cherry-picking)، بهدف التحقق من إمكانية توسيع هذه المجموعة حسب الحاجة. أجرينا تجربة عبر الإنترنت لتقييم بشري، صُممت لتكون عادلة قدر الإمكان للسامع، ووجدنا أن المُستجيبين كانوا في المتوسط أفضل بنسبة 7% فقط من التخمين العشوائي في التمييز بين قطع "JS Fake Chorales" وقطع حقيقية كتبها يوهان سيباستيان باخ. علاوة على ذلك، نُعلن عن إتاحة البيانات المُجهّلة التي تم جمعها من التجارب جنبًا إلى جنب مع العينات الصوتية بصيغة MIDI. وأخيرًا، أجرينا دراسات تحليلية (ablation studies) لإثبات فعالية استخدام القطع الاصطناعية في الأبحاث المتعلقة بنمذجة الموسيقى متعددة الأصوات، ووجدنا أنه يمكن تحسين أداء خوارزمية معروفة في تقليل خسارة المجموعة المُختبرة (validation set loss) على مجموعة بيانات "JSB Chorales" القياسية، وذلك ببساطة من خلال تعزيز مجموعة التدريب باستخدام قطع "JS Fake Chorales".