HyperAI超神経

オンラインチュートリアル:世界初!萌え動画生成モデル!Alibaba Wan2.2オープンソース化で、コンシューマー向けグラフィックカードでもシネマティックAI動画を実現

特色图像

最近、アリババのTongyi Wanxiang Labは、高度なAIビデオ生成モデルWan2.2をオープンソース化しました。テキスト生成ビデオ、画像生成ビデオ、統合ビデオ生成の 3 つのモデルが含まれており、合計 270 億のパラメータがあります。世界初の MoE ベースのビデオ モデルである Wan2.2 は、ビデオ生成の品質と計算効率を大幅に向上させるだけでなく、NVIDIA RTX 4090 などのコンシューマー グレードのグラフィック カードでの効率的な操作も可能にします。高品質のビデオ生成のためのハードウェアのしきい値を大幅に削減します。同時に、映画レベルの美的制御システムの先駆者でもありました。照明、色、構図といった美的効果を正確に制御し、映画のようなクオリティを実現し、AI生成動画の芸術的表現を豊かにし、完璧なものにします。Wan2.2は、複数の社内および社外ベンチマークにおいて、既存のオープンソースおよびクローズドソースの動画生成モデルを凌駕し、明確かつ顕著なパフォーマンス優位性を示しています。

このオープンソース イニシアチブは、テクノロジーをすべての人が利用できるようにするための取り組みであるだけでなく、AI アプリケーションのオープン エコシステムに活力を注入し続けています。短期的には、Wan2.2のオープンソースは開発者を引きつけ、共同でツールチェーンを構築し、業界のイノベーションを加速させます。長期的には、世界的なAIコンピューティングパワーの需要の増加と映画テレビ業界のデジタル化の傾向と相まって、ツールのエンパワーメントからエコシステムの共同構築への産業変革を効果的に促進します。

Wan2.2: オープンな高度な大規模ビデオ生成モデルが、HyperAI Hyperneuron Web サイト (hyper.ai) のチュートリアル セクションで公開されました。映画のようなクオリティのビデオを撮影するカメラマンを体験してみませんか?

チュートリアルのリンク:

https://go.hyper.ai/JMQSN

デモの実行

1. hyper.ai ホームページで「チュートリアル」ページを選択し、「Wan2.2: オープンで高度な大規模ビデオ生成モデル」を選択して、「このチュートリアルをオンラインで実行」をクリックします。

2. ページがジャンプしたら、右上隅の「クローン」をクリックしてチュートリアルを独自のコンテナにクローンします。

3. NVIDIA RTX A6000 48GBとPyTorchイメージを選択し、ニーズに合わせて従量課金制または日次/週次/月次プランを選択し、「続行」をクリックします。新規ユーザーは、以下の招待リンクから登録すると、RTX 4090を4時間分、CPU時間を5時間分無料でご利用いただけます。

HyperAI ハイパーニューラルの専用招待リンク (ブラウザに直接コピーして開きます):

https://openbayes.com/console/signup?r=Ada0322_NR0n

4. リソースが割り当てられるまでお待ちください。最初のクローン作成プロセスには約3分かかります。ステータスが「実行中」に変わったら、「APIアドレス」の横にある矢印をクリックしてデモページに移動します。APIアドレスを使用する前に、実名認証を完了する必要がありますのでご注意ください。

効果実証

テキストからビデオへの生成

デモ ページに入ったら、プロンプトを入力して「ビデオを生成」をクリックします。

プロンプト: 日没時の静かな海を航行する船の映画のようなショット。

画像からビデオへの生成

デモ ページに入ったら、画像をアップロードしてプロンプトを入力し、「ビデオを生成」をクリックします。

プロンプト: 両手を使って猫のメガネを外します。

以上が今回HyperAIがおすすめするチュートリアルです。ぜひ皆さんも体験してみてください!

チュートリアルのリンク:

https://go.hyper.ai/JMQSN