HyperAI

EvoSearch-codes : Cadre D'algorithme Évolutif

1. Introduction au tutoriel

Étoiles GitHub

EvoSearch-codes est une méthode de recherche évolutive lancée par l'Université des sciences et technologies de Hong Kong et l'équipe de Kuaishou Keling le 1er mai 2025. La qualité de génération du modèle est grandement améliorée grâce à l'augmentation de la quantité de calculs lors de l'inférence, à la prise en charge de la génération d'images et de vidéos, et à la compatibilité avec les modèles de diffusion et de flux les plus avancés. EvoSearch ne nécessite ni apprentissage ni mise à jour de gradient, et peut atteindre des résultats optimaux significatifs sur une série de tâches. Il présente également de bonnes capacités de mise à l'échelle, de robustesse et de généralisation. Avec l'augmentation de la quantité de calculs lors des tests, EvoSearch montre que SD2.1 et Flux.1-dev ont également le potentiel d'égaler, voire de dépasser, GPT-4o. Pour la génération vidéo, Wan 1.3B peut également surpasser Wan 14B et Hunyuan 13B, démontrant ainsi le potentiel et les perspectives de recherche pour la mise à l'échelle en temps de test, en complément de la mise à l'échelle en temps d'apprentissage. Les résultats de l'article sont les suivants :Mise à l'échelle de la génération d'images et de vidéos via la recherche évolutive au moment du test".

Ce tutoriel utilise une seule carte RTX A6000 comme ressource. Il propose trois exemples de tests : génération de vidéo WAN, génération d'images SD et génération d'images FLUX.

2. Exemples de projets

3. Étapes de l'opération

1. Après avoir démarré le conteneur, cliquez sur l'adresse API pour accéder à l'interface Web

2. Étapes d'utilisation

Si « Bad Gateway » s'affiche, cela signifie que le modèle est en cours d'initialisation. Étant donné que le modèle est grand, veuillez patienter environ 2 à 3 minutes et actualiser la page.

2.1 Génération de vidéo WAN

Astuce : la génération de la vidéo prendra environ 5 à 8 minutes.

Description des paramètres

  • Paramètres avancés
    • Graine aléatoire : Graine aléatoire.
    • Hauteur : Hauteur de génération de la vidéo.
    • Largeur : largeur de génération de vidéo.
    • Durée de la vidéo : contrôle la durée de la vidéo.
    • Étapes d'inférence : Étapes d'inférence.
    • Échelle de guidage : contrôle la force de l’influence des indices textuels sur la vidéo générée.
    • Itération : nombre d'itérations.

2.2 Génération d'images SD

Conseil : il est préférable d’utiliser l’anglais comme mot d’ordre.

  • Paramètres avancés
    • Graine aléatoire : Graine aléatoire.
    • Taille de l'image : Taille de l'image.
    • Étapes d'inférence : Étapes d'inférence.
    • Échelle CFG : contrôle la force de l’influence des indices textuels sur l’image générée.
    • Itération : nombre d'itérations.

2.3 Génération d'images FLUX

4. Discussion

🖌️ Si vous voyez un projet de haute qualité, veuillez laisser un message en arrière-plan pour le recommander ! De plus, nous avons également créé un groupe d’échange de tutoriels. Bienvenue aux amis pour scanner le code QR et commenter [Tutoriel SD] pour rejoindre le groupe pour discuter de divers problèmes techniques et partager les résultats de l'application↓

Informations sur la citation

Les informations de citation pour ce projet sont les suivantes :

@misc{he2025scaling,
    title={Scaling Image and Video Generation via Test-Time Evolutionary Search},
    author={Haoran He and Jiajun Liang and Xintao Wang and Pengfei Wan and Di Zhang and Kun Gai and Ling Pan},
    year={2025},
    eprint={2505.17618},
    archivePrefix={arXiv},
    primaryClass={cs.CV}
}