16日前
HTS-AT:音声分類および検出のための階層的トークン・意味音声変換モデル
Ke Chen, Xingjian Du, Bilei Zhu, Zejun Ma, Taylor Berg-Kirkpatrick, Shlomo Dubnov

要約
音声分類は、音声サンプルをその対応するラベルにマッピングする重要なタスクである。近年、自己注意機構(self-attention)を備えたトランスフォーマーモデルがこの分野に導入されつつある。しかし、従来の音声トランスフォーマーは大規模なGPUメモリと長時間の学習を要しており、高性能を達成するためには事前学習済みの視覚モデルに依存しているため、音声タスクにおけるモデルのスケーラビリティに制限が生じている。こうした課題に対処するため、本研究では階層構造を有する音声トランスフォーマー「HTS-AT」を提案する。この構造により、モデルサイズと学習時間を削減することが可能となる。さらに、最終出力をクラス特徴マップにマッピングするためのトークン・セマンティクスモジュールを組み合わせることで、音声イベント検出(時間的局所化)に対応したモデルを実現した。HTS-ATは、音声分類の3つのデータセット上で評価され、AudioSetおよびESC-50では新たなSOTA(最優秀性能)を達成し、Speech Command V2でも既存のSOTAと同等の性能を示した。また、従来のCNNベースモデルと比較して、イベント局所化の性能でも優れている。さらに、従来の音声トランスフォーマーと比較して、モデルパラメータ数は35%、学習時間は15%にまで削減された。これらの結果は、HTS-ATが高い性能と高い効率性を両立していることを示している。