
摘要
我们研究了Wave-U-Net架构在语音增强中的应用,该模型由Stoller等人提出,最初用于音乐中的人声和伴奏分离。这种端到端的音频源分离方法直接在时域内运行,允许对相位信息进行综合建模,并能够考虑较大的时间上下文。我们的实验表明,所提出的方法在Voice Bank语料库(VCTK)数据集上的语音增强任务中,相对于现有技术改进了多个指标,包括PESQ、CSIG、CBAK、COVL和SSNR。我们发现,与最初为音乐中歌唱声音分离设计的系统相比,较少的隐藏层就足以实现语音增强。我们认为这一初步结果是一个令人鼓舞的信号,进一步探索时域内的语音增强不仅具有其自身的价值,还可以作为语音识别系统的预处理步骤。