HyperAIHyperAI
il y a 17 jours

Modèles de diffusion neurale

Grigory Bartosh, Dmitry Vetrov, Christian A. Naesseth
Modèles de diffusion neurale
Résumé

Les modèles de diffusion ont fait preuve d'une performance remarquable sur de nombreuses tâches génératives. Malgré leurs récents succès, la plupart des modèles de diffusion sont limités par le fait qu'ils ne permettent que des transformations linéaires de la distribution des données. En revanche, une famille plus large de transformations pourrait potentiellement permettre d'entraîner des distributions génératives de manière plus efficace, en simplifiant le processus inverse et en réduisant l'écart entre le logarithme négatif de vraisemblance réel et son approximation variationnelle. Dans cet article, nous présentons les Modèles de Diffusion Neuromorphiques (NDMs), une généralisation des modèles de diffusion conventionnels qui permet de définir et d'apprendre des transformations non linéaires dépendantes du temps des données. Nous montrons comment optimiser les NDMs à l’aide d’une borne variationnelle dans un cadre exempt de simulation. En outre, nous dérivons une formulation continue dans le temps des NDMs, qui permet une inférence rapide et fiable grâce à des solveurs numériques standards pour équations différentielles ordinaires (ODE) et stochastiques (SDE). Enfin, nous démontrons l'utilité des NDMs dotés de transformations apprenables à travers des expériences sur des benchmarks standards de génération d’images, incluant CIFAR-10, des versions découpées d’ImageNet et CelebA-HQ. Les NDMs surpassent les modèles de diffusion conventionnels en termes de vraisemblance et produisent des échantillons de haute qualité.

Modèles de diffusion neurale | Articles de recherche récents | HyperAI