HyperAIHyperAI

Command Palette

Search for a command to run...

ミュージック・トランスフォーマー

Cheng-Zhi Anna Huang Ashish Vaswani Jakob Uszkoreit Noam Shazeer Ian Simon Curtis Hawthorne Andrew M. Dai Matthew D. Hoffman Monica Dinculescu Douglas Eck

概要

音楽は構造と意味を築くために反復に大きく依存しています。自己言及はモチーフからフレーズ、さらにはABA構造のような音楽の全体的なセクションの再利用まで、複数の時間スケールで発生します。自己注意に基づいたシーケンスモデルであるトランスフォーマー(Vaswaniら, 2017)は、長距離の一貫性を維持する必要がある多くの生成タスクで強力な結果を達成しており、これは自己注意が音楽モデリングにも適している可能性があることを示唆しています。しかし、音楽の作曲や演奏においては相対的なタイミングが極めて重要です。トランスフォーマーにおける相対位置情報の表現方法としては、ペアワイズ距離に基づいて注意を調整する手法(Shawら, 2018)が既に提案されていますが、これは音楽作品のような長いシーケンスでは中間の相対情報を記憶する複雑さがシーケンス長の二乗になるため実用的ではありません。私たちは、この中間メモリ要件をシーケンス長に線形にするアルゴリズムを提案します。これにより、私たちの改良された相対注意機構を持つトランスフォーマーが魅力的な構造を持つ一分間以上の作品(数千ステップ、Ooreら, 2018でモデル化された長さの4倍)を生成し、与えられたモチーフに対して一貫して展開する続編を生成し、またseq2seq設定において旋律に基づいて伴奏を生成することが可能になります。私たちはJSB ChoralesとPiano-e-Competitionという2つのデータセットを使用して、私たちの相対注意機構を持つトランスフォーマーを評価し、後者のデータセットで最先端の結果を得ました。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています