HyperAI

Online-Tutorial: Das Weltweit Erste MoE-Videogenerierungsmodell! Alibaba Wan2.2 Open Source Ermöglicht Filmische KI-Videos Auf Verbrauchergrafikkarten

特色图像

Kürzlich,Alibabas Tongyi Wanxiang Lab hat sein fortschrittliches KI-Videogenerierungsmodell Wan2.2 als Open Source veröffentlicht.Es umfasst drei Modelle: textgeneriertes Video, bildgeneriertes Video und einheitliche Videogenerierung mit insgesamt 27 Milliarden Parametern.Als weltweit erstes MoE-basiertes Videomodell verbessert Wan2.2 nicht nur die Qualität und Rechenleistung der Videogenerierung erheblich, sondern ermöglicht auch einen effizienten Betrieb auf Grafikkarten der Verbraucherklasse wie NVIDIA RTX 4090.Es reduziert die Hardware-Schwelle für die Erstellung hochwertiger Videos erheblich.Gleichzeitig war es Vorreiter bei der Entwicklung eines ästhetischen Kontrollsystems auf Kinoniveau.Es kann ästhetische Effekte wie Beleuchtung, Farbe und Komposition präzise steuern, wodurch Kinoqualität erzeugt und der künstlerische Ausdruck KI-generierter Videos bereichert und perfektioniert wird. In mehreren internen und externen Benchmarks übertrifft Wan2.2 bestehende Open-Source- und Closed-Source-Modelle zur Videogenerierung und weist einen klaren und signifikanten Leistungsvorteil auf.

Diese Open-Source-Initiative ist nicht nur ein Schritt, um Technologie für alle zugänglich zu machen, sondern verleiht dem offenen Ökosystem der KI-Anwendungen auch weiterhin neue Vitalität.Kurzfristig wird die Open Source von Wan2.2 Entwickler dazu anregen, gemeinsam Toolchains aufzubauen und die Innovation in der Branche zu beschleunigen. Langfristig wird sie in Kombination mit dem Wachstum der weltweiten Nachfrage nach KI-Rechenleistung und dem Digitalisierungstrend in der Film- und Fernsehbranche den industriellen Wandel von der Tool-Empowerment- zur ökologischen Co-Konstruktion effektiv vorantreiben.

Wan2.2: Ein offenes, erweitertes Modell zur Videogenerierung im großen Maßstab ist jetzt auf der HyperAI Hyperneuron-Website (hyper.ai) im Abschnitt „Tutorials“ verfügbar.Erleben Sie die Rolle des Kameramanns für Videos in Kinoqualität!

Link zum Tutorial:

https://go.hyper.ai/JMQSN

Demolauf

1. Wählen Sie auf der Homepage von hyper.ai die Seite „Tutorials“ aus, wählen Sie „Wan2.2: Ein offenes, erweitertes Modell zur Videogenerierung im großen Maßstab“ und klicken Sie auf „Dieses Tutorial online ausführen“.

2. Klicken Sie nach dem Seitensprung oben rechts auf „Klonen“, um das Tutorial in Ihren eigenen Container zu klonen.

3. Wählen Sie die NVIDIA RTX A6000 48 GB und PyTorch-Images aus, wählen Sie je nach Bedarf den Pay-As-You-Go- oder Tages-/Wochen-/Monatstarif und klicken Sie auf „Weiter“. Neue Benutzer können sich über den unten stehenden Einladungslink registrieren und erhalten 4 Stunden kostenlose RTX 4090 und 5 Stunden kostenlose CPU-Zeit!

Exklusiver Einladungslink von HyperAI (kopieren und im Browser öffnen):

https://openbayes.com/console/signup?r=Ada0322_NR0n

4. Warten Sie, bis die Ressourcen zugewiesen sind. Der erste Klonvorgang dauert etwa 3 Minuten. Wenn der Status auf „Läuft“ wechselt, klicken Sie auf den Pfeil neben „API-Adresse“, um zur Demoseite zu gelangen. Bitte beachten Sie, dass Benutzer vor der Verwendung der API-Adresse eine Echtnamen-Authentifizierung durchführen müssen.

Effektdemonstration

Text-zu-Video-Generierung

Nachdem Sie die Demoseite aufgerufen haben, geben Sie die Eingabeaufforderung ein und klicken Sie auf „Video generieren“.

Aufforderung: Eine filmische Aufnahme eines Bootes, das bei Sonnenuntergang auf ruhiger See segelt.

Bild-zu-Video-Generierung

Laden Sie nach dem Aufrufen der Demoseite das Bild hoch, geben Sie die Eingabeaufforderung ein und klicken Sie dann auf „Video generieren“.

Aufforderung: Nehmen Sie der Katze mit beiden Händen die Brille ab.

Das Obige ist das diesmal von HyperAI empfohlene Tutorial. Jeder ist herzlich eingeladen, vorbeizukommen und es auszuprobieren!

Link zum Tutorial:

https://go.hyper.ai/JMQSN