
摘要
本文的目标是在嘈杂和无约束条件下进行说话人识别。我们做出了两项关键贡献。首先,我们从开源媒体中收集了一个大规模的音视频说话人识别数据集。通过完全自动化的流程,我们整理出了VoxCeleb2数据集,其中包含来自超过6,000名说话人的超过一百万条语音片段。该数据集的规模是目前任何公开可用的说话人识别数据集的数倍。其次,我们开发并比较了卷积神经网络(CNN)模型及其训练策略,这些模型和策略能够在不同条件下有效识别语音中的身份。在VoxCeleb2数据集上训练的模型在基准数据集上的性能显著超过了以往的研究成果。