Modèle diffusion probabiliste conditionnel pour l'amélioration de la parole

L’amélioration vocale constitue un élément essentiel de nombreuses applications audio axées sur l’utilisateur, mais les systèmes actuels souffrent encore de sorties déformées et peu naturelles. Bien que les modèles génératifs aient montré un fort potentiel dans la synthèse vocale, ils restent en retard dans le domaine de l’amélioration vocale. Ce travail exploite les avancées récentes des modèles probabilistes à diffusion, et propose un nouvel algorithme d’amélioration vocale qui intègre les caractéristiques du signal vocal bruité observé dans les processus de diffusion et de rétroaction. Plus précisément, nous proposons une formulation généralisée du modèle probabiliste à diffusion, nommée modèle probabiliste à diffusion conditionnel, qui, dans son processus de rétroaction, peut s’adapter à des bruits réels non gaussiens présents dans le signal vocal estimé. Dans nos expériences, nous démontrons une performance supérieure de l’approche proposée par rapport à des modèles génératifs représentatifs, et étudions la capacité de généralisation de nos modèles à d’autres jeux de données présentant des caractéristiques de bruit non rencontrées durant l’entraînement.