17 天前

基于深度残差-密集格点网络的语音增强

Mohammad Nikzad, Aaron Nicolson, Yongsheng Gao, Jun Zhou, Kuldip K. Paliwal, Fanhua Shang
基于深度残差-密集格点网络的语音增强
摘要

卷积神经网络(CNN)中采用残差连接(ResNet)和因果膨胀卷积单元(causal dilated convolutional units)已成为深度学习语音增强方法中的主流网络架构。尽管残差连接有助于训练过程中的梯度流动,但由于浅层输出与深层输出反复相加,可能导致浅层特征的衰减。为提升特征的重用效率,一种策略是融合ResNet与密集连接卷积网络(DenseNet)。然而,DenseNet在特征重用方面存在参数过度分配的问题。受此启发,本文提出一种新型语音增强CNN——残差-密集格点网络(Residual-Dense Lattice Network, RDL-Net),该网络同时采用残差聚合与密集聚合机制,且在不造成特征重用参数过度分配的前提下实现高效结构设计。这一目标通过RDL模块的拓扑结构实现,其限制了用于密集聚合的输出数量,从而在保持特征丰富性的同时控制参数规模。大量实验结果表明,RDL-Net在语音增强性能上优于仅采用残差或密集聚合的CNN架构。此外,RDL-Net显著减少了参数量,降低了计算开销。进一步实验还证明,RDL-Net在多个方面超越了当前多数先进的深度学习语音增强方法。