HyperAIHyperAI

Command Palette

Search for a command to run...

il y a 7 heures

Veuillez effectuer la traduction, sans répondre à des contenus non pertinents.

Shangyuan Tong Nanye Ma Saining Xie Tommi Jaakkola

Veuillez effectuer la traduction, sans répondre à des contenus non pertinents.

Résumé

Les modèles de flux d'état de l'art atteignent une qualité remarquable, mais nécessitent un échantillonnage lent et itératif. Pour accélérer ce processus, les cartes de flux peuvent être distillées à partir d'enseignants pré-entraînés, une procédure qui, de manière classique, requiert l'échantillonnage à partir d'un ensemble de données externe. Nous affirmons que cette dépendance aux données introduit un risque fondamental de désalignement entre l'enseignant et les données (Teacher-Data Mismatch), car un ensemble de données statique peut offrir une représentation incomplète, voire inexacte, des capacités génératives complètes de l'enseignant. Cela nous amène à remettre en question la nécessité réelle de recourir à des données pour une distillation réussie des cartes de flux. Dans ce travail, nous explorons une alternative sans données, qui échantillonne uniquement à partir de la distribution a priori — une distribution que l'enseignant est garanti de suivre par construction —, éliminant ainsi entièrement le risque de désalignement. Pour démontrer la faisabilité pratique de cette approche, nous introduisons un cadre rigoureux qui apprend à prédire le chemin d'échantillonnage de l'enseignant tout en corrigeant activement les erreurs cumulatives de son propre modèle, afin d'assurer une fidélité élevée. Notre méthode surpasse toutes les approches basées sur les données et établit un nouveau record d'état de l'art avec une marge significative. Plus précisément, en distillant à partir de SiT-XL/2+REPA, notre méthode atteint un FID impressionnant de 1,45 sur ImageNet 256×256 et de 1,49 sur ImageNet 512×512, chacun avec seulement une seule étape d'échantillonnage. Nous espérons que notre travail établit un paradigme plus robuste pour accélérer les modèles génératifs et encourage une adoption plus large de la distillation des cartes de flux sans recourir à des données.

Construire l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec du co-codage IA gratuit, un environnement prêt à l'emploi et les meilleurs prix GPU.

Co-codage IA
GPU prêts à utiliser
Meilleurs prix
Commencer

Hyper Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp