Command Palette
Search for a command to run...
Démonstration De Génération Vidéo À Faible Mémoire Vidéo FramePack
Date
Size
913.72 MB
Tags
License
Other
GitHub
Paper URL
1. Introduction au tutoriel
FramePack est un framework open source de génération vidéo développé en avril 2025 par l'équipe de Zhang Lvmin, les auteurs de ControlNet. Grâce à une architecture de réseau neuronal innovante, il résout efficacement les problèmes de forte consommation de mémoire, de dérive et d'oubli inhérents aux méthodes de génération vidéo traditionnelles, tout en réduisant considérablement les besoins matériels. Des articles de recherche associés sont disponibles. Emballage du contexte de la trame d'entrée dans les modèles de prédiction de la trame suivante pour la génération vidéo .
Les ressources informatiques utilisées dans ce tutoriel sont des RTX 4090.
Exemples d'effets




Exigences du projet
- Les GPU Nvidia des séries RTX 30XX, 40XX et 50XX prennent en charge fp16 et bf16. GTX 10XX/20XX non testé.
- Système d'exploitation Linux ou Windows.
- Au moins 6 Go de mémoire GPU.
Pour générer 1 minute de vidéo (60 secondes) à 30 ips (1800 images) en utilisant le modèle 13B, la mémoire GPU minimale requise est de 6 Go.
Concernant la vitesse, sur un ordinateur de bureau RTX 4090, elle produit 2,5 s/image (non optimisé) ou 1,5 s/image (teacache). Sur un ordinateur portable, comme un ordinateur portable 3070ti ou un ordinateur portable 3060, c'est environ 4 à 8 fois plus lent.Si vous êtes beaucoup plus lent que cela, résolvez le problème..
Pendant le processus de génération vidéo, vous pouvez voir directement l'image générée car elle utilise la prédiction de l'image suivante (-section). Vous obtenez ainsi de nombreux retours visuels avant que la vidéo entière ne soit générée.
2. Étapes de l'opération
1. Après avoir démarré le conteneur, cliquez sur l'adresse API pour accéder à l'interface Web
Si « Bad Gateway » s'affiche, cela signifie que le modèle est en cours d'initialisation. Étant donné que le modèle est grand, veuillez patienter environ 1 à 2 minutes et actualiser la page.

2. Démonstration fonctionnelle
Après avoir téléchargé l'image et ajouté les mots d'invite, cliquez sur « Démarrer la génération » pour générer la vidéo.

Informations sur la citation
Merci à l'utilisateur de GitHub garçonswu Pour la réalisation de ce tutoriel, les informations de référence du projet sont les suivantes :
@article{zhang2025framepack,
title={Packing Input Frame Contexts in Next-Frame Prediction Models for Video Generation},
author={Lvmin Zhang and Maneesh Agrawala},
journal={Arxiv},
year={2025}
}
Échange et discussion
🖌️ Si vous voyez un projet de haute qualité, veuillez laisser un message en arrière-plan pour le recommander ! De plus, nous avons également créé un groupe d’échange de tutoriels. Bienvenue aux amis pour scanner le code QR et commenter [Tutoriel SD] pour rejoindre le groupe pour discuter de divers problèmes techniques et partager les résultats de l'application↓

Build AI with AI
From idea to launch — accelerate your AI development with free AI co-coding, out-of-the-box environment and best price of GPUs.
