HyperAI

Tutoriel En Ligne | L'âme Du Garçon De Qingdao Jiao Enjun Voyage Vers Black Myth : Monkey King ? MuseV + MuseTalk Créent Des Humains Numériques De Haute Qualité

特色图像

L’utilisation de programmes de formation humaine numérique traditionnels pour générer un humain numérique de haute qualité nécessite souvent beaucoup de temps et de ressources informatiques, et présente également des exigences élevées en matière de matériel de formation. Si vous souhaitez obtenir un bon effet de consistance de la forme des lèvres, cela prend généralement plusieurs heures, voire plus.

L’émergence de MuseV et de MuseTalk a apporté de nouvelles avancées dans le domaine des humains numériques. Après avoir utilisé MuseV pour générer des vidéos humaines numériques, MuseTalk est utilisé pour synchroniser les mouvements des lèvres et l'audio, et une production humaine numérique complète peut être réalisée en quelques minutes seulement.

« MuseV Unlimited Duration Virtual Human Video Generation Demo » et « MuseTalk High-Quality Lip Synchronization Model Demo » ont été téléchargés dans le module de didacticiel public d'OpenBayes.L'environnement a été construit pour vous. Vous n'avez pas besoin de saisir de commandes. Vous pouvez le démarrer immédiatement en le clonant en un clic !

Adresse du tutoriel :

* MuseV :

https://go.hyper.ai/K8qz8

* MuseTalk :

https://go.hyper.ai/Ui0UA

Pour vous aider à mieux comprendre,Station B Up Master "Naonao Bunao nowsmon" a enregistré une vidéo d'enseignement détaillée, bienvenue à tous pour cliquer trois fois~

https://www.bilibili.com/video/BV1fCWVeWEic/?vd_source=5e54209e1f8c68b7f1dc3df8aabf856c

Je crois que de nombreux lecteurs ont déjà fait l'expérience du récent et populaire « Black Myth: Wukong ». Erlang Shen fait vraiment aimer et détester les gens. De nombreux joueurs se sont également plaints que son visage n'était pas assez beau, alors ils l'ont remplacé par celui de Jiao Enjun, le « National Yang Jian ».

Essai de démonstration

Générer des vidéos d'humains virtuels à l'aide de MuseV

1. Connectez-vous à hyper.ai, recherchez « MuseV Unlimited Duration Virtual Human Video Generation Demo » sur la page « Tutoriel » et cliquez sur « Exécuter ce tutoriel en ligne ».

2. Une fois la page affichée, cliquez sur « Cloner » dans le coin supérieur droit pour cloner le didacticiel dans votre propre conteneur.

3. Cliquez sur « Suivant : sélectionner le taux de hachage » dans le coin inférieur droit.

4. Une fois la page affichée, sélectionnez « NVIDIA RTX 4090 » et l'image « PyTorch », puis cliquez sur « Suivant : Réviser ».Les nouveaux utilisateurs peuvent s'inscrire en utilisant le lien d'invitation ci-dessous pour obtenir 4 heures de RTX 4090 + 5 heures de temps CPU gratuit !

Lien d'invitation exclusif HyperAI (copier et ouvrir dans le navigateur) :https://openbayes.com/console/signup?r=6bJ0ljLFsFh_Vvej

5. Après confirmation, cliquez sur « Continuer » et attendez que les ressources soient allouées. Le premier processus de clonage prendra environ 2 minutes. Lorsque le statut passe à « En cours d'exécution », cliquez sur la flèche de saut à côté de « Adresse API » pour accéder à la page de démonstration.Veuillez noter que les utilisateurs doivent effectuer l'authentification par nom réel avant d'utiliser la fonction d'accès à l'adresse API.

Si « Bad Gateway » s'affiche lors de l'ouverture de l'adresse API, cela signifie que le modèle n'a pas encore été chargé. Attendez 1 à 2 minutes, puis ouvrez à nouveau l’adresse API.

6. Après avoir ouvert la démo, téléchargez une image et entrez l'invite. Le format de l'invite est le mot de qualité + sujet du personnage + mot d'action, par exemple (chef-d'œuvre, meilleure qualité, haute résolution : 1), (1 garçon, solo : 1), (clignements des yeux : 1,6), (ondulation des cheveux : 1,3). Après avoir entré, cliquez sur « Générer » et attendez un instant pour générer la vidéo.

Synchronisation labiale et audio avec MuseTalk

1. Revenez à l'interface Tutoriels, ouvrez la démonstration du modèle de synchronisation labiale haute qualité MuseTalk et cliquez sur Exécuter ce didacticiel en ligne.

2. Une fois la page affichée, cliquez sur « Cloner » dans le coin supérieur droit pour cloner le didacticiel dans votre propre conteneur.

3. Cliquez sur « Suivant : sélectionner le taux de hachage » dans le coin inférieur droit.

4. Une fois la page affichée, sélectionnez toujours les images « NVIDIA RTX 4090 » et « PyTorch », puis cliquez sur « Suivant : Réviser ».

5. Après confirmation, cliquez sur « Continuer » et attendez que les ressources soient allouées. Le premier clonage prend environ 2 minutes. Une fois que le statut est affiché comme « En cours d'exécution », cliquez sur la flèche de saut à côté de « Adresse API » pour ouvrir la démo.

6. Accédez à la page de démonstration de MuseTalk, téléchargez la vidéo que nous venons de réaliser, puis téléchargez un clip audio, cliquez sur « Générer », attendez un moment et vous pourrez voir que la forme des lèvres du personnage dans la vidéo nouvellement générée est cohérente avec l'audio.

Nous avons créé un « Groupe d'échange de tutoriels de diffusion stable ». Bienvenue aux amis pour rejoindre le groupe pour discuter de divers problèmes techniques et partager les résultats des applications~