
要約
本稿では、音声認識ではなく話者認識にwav2vec2フレームワークを適用する方法を検討する。まず、事前学習された重みが話者認識タスクにおいてどの程度有効であるかを分析し、wav2vec2の出力シーケンスを固定長の話者埋め込みにどのように統合(プーリング)するかを検討する。話者認識に適応するため、CEまたはAAM softmax損失を用いた単一発話分類アプローチと、BCE損失を用いた発話ペア分類アプローチの2つのアーキテクチャを提案する。最も優れた性能を示したアプローチであるw2v2-aamは、拡張版VoxCeleb1テストセットにおいて1.88%のEER(等誤差率)を達成した。これに対して、ECAPA-TDNNベースラインでは1.69%のEERが報告されている。コードは以下のURLで公開されている:https://github.com/nikvaessen/w2v2-speaker。