Command Palette
Search for a command to run...
ShiftySpeechは、ジョンズ・ホプキンス大学が2025年に公開した大規模合成音声検出ベンチマークです。関連論文は「ShiftySpeech: 分布シフトを備えた大規模合成音声データセット」と題されており、言語、話者、生成モデル、録音条件の変化などを含む「分布シフト」に直面した際の、実世界における音声合成検出モデルの汎化能力を研究することを目的としています。
このデータセットには、3,000時間を超える合成音声が含まれており、読み上げスタイル、ポッドキャスト、YouTube録音、その他背景ノイズや非標準的な録音環境を含む7つのソースドメイン、言語、話者の年齢、アクセント、性別のバリエーションを網羅しています。データは3つの言語(英語、中国語、日本語)をカバーしており、音声は6つのTTS(テキスト読み上げ)システムと12のボコーダー(ボコーダー/波形生成器)を用いて生成され、システム分布のドリフトの程度が異なっています。