Command Palette
Search for a command to run...
Diffusion discrète uniforme avec chemin métrique pour la génération vidéo

Résumé
La génération vidéo en espace continu a connu un progrès rapide, tandis que les approches discrètes peinent à suivre en raison de l’accumulation d’erreurs et de l’incohérence sur de longs contextes. Dans ce travail, nous reprenons l’étude des modèles génératifs discrets et proposons URSA (Uniform discRete diffuSion with metric pAth), un cadre simple mais puissant qui réduit l’écart avec les méthodes continues pour la génération vidéo évolutivement scalable. Au cœur de URSA, la tâche de génération vidéo est formulée comme une révision itérative globale des jetons spatio-temporels discrets. Ce cadre intègre deux éléments clés : un « chemin métrique linéarisé » et un mécanisme de décalage temporel dépendant de la résolution. Ces deux innovations permettent à URSA de s’échelonner efficacement à la synthèse d’images haute résolution et à la génération de vidéos de longue durée, tout en nécessitant un nombre significativement réduit d’étapes d’inférence. En outre, nous introduisons une stratégie d’ajustement fin temporel asynchrone, qui unifie diverses tâches au sein d’un même modèle, notamment l’interpolation et la génération vidéo à partir d’image. Des expériences étendues sur des benchmarks exigeants en génération vidéo et d’images montrent que URSA surpasse de manière cohérente les méthodes discrètes existantes et atteint des performances comparables aux meilleures méthodes continues basées sur la diffusion. Le code et les modèles sont disponibles à l’adresse suivante : https://github.com/baaivision/URSA
Construire l'IA avec l'IA
De l'idée au lancement — accélérez votre développement IA avec du co-codage IA gratuit, un environnement prêt à l'emploi et les meilleurs prix GPU.