HyperAIHyperAI
il y a 17 jours

Flot par bloc : apprentissage d’un flot droit sur des blocs de données

Zibin Wang, Zhiyuan Ouyang, Xiangyun Zhang
Flot par bloc : apprentissage d’un flot droit sur des blocs de données
Résumé

Les modèles de flow-matching offrent un cadre puissant pour diverses applications, proposant un échantillonnage efficace et une modélisation flexible des trajectoires de probabilité. Ces modèles se caractérisent par des flux à faible courbure le long des trajectoires génératives apprises, ce qui permet de réduire l'erreur de troncature à chaque étape d'échantillonnage. Pour réduire davantage la courbure, nous proposons une méthode appelée block matching. Cette approche novatrice utilise des informations d'étiquetage pour partitionner la distribution des données en blocs, puis les apparie avec une distribution a priori paramétrée à l’aide des mêmes informations d’étiquetage, permettant ainsi d’apprendre des flux plus droits. Nous démontrons que la variance de la distribution a priori peut contrôler la borne supérieure de la courbure des trajectoires progressives dans les modèles de flow-matching. En concevant des stratégies de régularisation flexibles afin d’ajuster cette variance, nous obtenons une performance optimale en génération, équilibrant efficacement le compromis entre la préservation de la diversité des échantillons générés et la minimisation des erreurs des solveurs numériques. Nos résultats montrent une performance compétitive par rapport à d'autres modèles de même taille de paramètres. Le code est disponible à l’adresse suivante : \url{https://github.com/wpp13749/block_flow}.