Online-Tutorial | Die Seele Des Qingdao-Jungen Jiao Enjun Reist Zu Black Myth: Monkey King? MuseV + MuseTalk Erstellen Hochwertige Digitale Menschen

Die Verwendung herkömmlicher digitaler Menschen-Trainingsprogramme zur Generierung eines hochwertigen digitalen Menschen erfordert oft viel Zeit und Rechenressourcen und stellt auch hohe Anforderungen an das Trainingsmaterial. Wenn Sie einen guten Lippenkonsistenzeffekt erzielen möchten, dauert es in der Regel mehrere Stunden oder sogar länger.
Das Aufkommen von MuseV und MuseTalk hat zu neuen Durchbrüchen im Bereich der digitalen Menschen geführt. Nachdem mit MuseV digitale Menschenvideos erstellt wurden, werden mit MuseTalk Lippenbewegungen und Audio synchronisiert. Eine vollständige digitale Menschenproduktion kann in nur wenigen Minuten erreicht werden.
„MuseV Unlimited Duration Virtual Human Video Generation Demo“ und „MuseTalk High-Quality Lip Synchronization Model Demo“ wurden in das öffentliche Tutorial-Modul von OpenBayes hochgeladen.Die Umgebung wurde für Sie erstellt. Sie müssen keine Befehle eingeben. Sie können es sofort starten, indem Sie es mit einem Klick klonen!
Adresse des Tutorials:
* MuseV:
* MuseTalk:
Damit es für alle besser verständlich ist,B-Station-Up-Meister „Naonao Bunao nowsmon“ hat ein ausführliches Lehrvideo aufgenommen. Alle sind herzlich eingeladen, dreimal zu klicken ~
https://www.bilibili.com/video/BV1fCWVeWEic/?vd_source=5e54209e1f8c68b7f1dc3df8aabf856c
Ich glaube, viele Leser haben den kürzlich beliebten „Black Myth: Wukong“ bereits kennengelernt. Erlang Shen bringt die Leute wirklich dazu, ihn zu lieben und zu hassen. Viele Spieler beschwerten sich auch, dass sein Gesicht nicht hübsch genug sei, also ersetzten sie es durch „National Yang Jian“ Jiao Enjun.
Demolauf
Generieren Sie virtuelle Menschenvideos mit MuseV
1. Melden Sie sich bei hyper.ai an, suchen Sie auf der Seite „Tutorial“ nach „MuseV Unlimited Duration Virtual Human Video Generation Demo“ und klicken Sie auf „Dieses Tutorial online ausführen“.


2. Klicken Sie nach dem Seitensprung oben rechts auf „Klonen“, um das Tutorial in Ihren eigenen Container zu klonen.

3. Klicken Sie unten rechts auf „Weiter: Hashrate auswählen“.

4. Wählen Sie nach dem Seitenwechsel das Bild „NVIDIA RTX 4090“ und „PyTorch“ aus und klicken Sie auf „Weiter: Überprüfen“.Neue Benutzer können sich über den unten stehenden Einladungslink registrieren, um 4 Stunden RTX 4090 + 5 Stunden CPU-freie Zeit zu erhalten!
Exklusiver Einladungslink von HyperAI (kopieren und im Browser öffnen):https://openbayes.com/console/signup?r=6bJ0ljLFsFh_Vvej

5. Klicken Sie nach der Bestätigung auf „Weiter“ und warten Sie, bis die Ressourcen zugewiesen wurden. Der erste Klonvorgang dauert etwa 2 Minuten. Wenn sich der Status in „Läuft“ ändert, klicken Sie auf den Sprungpfeil neben „API-Adresse“, um zur Demoseite zu springen.Bitte beachten Sie, dass Benutzer vor der Verwendung der API-Adresszugriffsfunktion eine Echtnamenauthentifizierung durchführen müssen.
Wenn beim Öffnen der API-Adresse „Bad Gateway“ angezeigt wird, bedeutet dies, dass das Modell noch nicht geladen wurde. Warten Sie 1–2 Minuten und öffnen Sie dann die API-Adresse erneut.



6. Laden Sie nach dem Öffnen der Demo ein Bild hoch und geben Sie die Eingabeaufforderung ein. Das Format der Eingabeaufforderung ist Qualitätswort + Charaktersubjekt + Aktionswort, zum Beispiel (Meisterwerk, beste Qualität, hohe Auflösung:1), (1 Junge, Solo:1), (Augenblinzeln:1,6), (Haarwelle:1,3). Klicken Sie nach der Eingabe auf „Generieren“ und warten Sie einen Moment, bis das Video generiert wird.

Lippensynchronisation und Audio mit MuseTalk
1. Kehren Sie zur Tutorial-Oberfläche zurück, öffnen Sie die MuseTalk High-Quality Lip-Sync Model Demo und klicken Sie auf „Dieses Tutorial online ausführen“.


2. Klicken Sie nach dem Seitensprung oben rechts auf „Klonen“, um das Tutorial in Ihren eigenen Container zu klonen.

3. Klicken Sie unten rechts auf „Weiter: Hashrate auswählen“.

4. Wählen Sie nach dem Seitenwechsel weiterhin die Bilder „NVIDIA RTX 4090“ und „PyTorch“ aus und klicken Sie auf „Weiter: Überprüfen“.

5. Klicken Sie nach der Bestätigung auf „Weiter“ und warten Sie, bis die Ressourcen zugewiesen wurden. Das erste Klonen dauert etwa 2 Minuten. Nachdem der Status als „Läuft“ angezeigt wird, klicken Sie auf den Sprungpfeil neben „API-Adresse“, um die Demo zu öffnen.



6. Rufen Sie die MuseTalk-Demoseite auf, laden Sie das gerade erstellte Video hoch, laden Sie dann einen Audioclip hoch, klicken Sie auf „Generieren“, warten Sie einen Moment und Sie können sehen, dass die Lippenform der Figur im neu generierten Video mit dem Audio übereinstimmt.

Wir haben eine „Stable Diffusion Tutorial Exchange Group“ eingerichtet. Willkommen, Freunde, treten Sie der Gruppe bei, um verschiedene technische Probleme zu diskutieren und Anwendungsergebnisse auszutauschen ~