HyperAIHyperAI

Command Palette

Search for a command to run...

MoCoGAN: 動画生成のための運動と内容の分解

Sergey Tulyakov Ming-Yu Liu Xiaodong Yang Jan Kautz

概要

ビデオにおける視覚信号は、コンテンツとモーションに分けることができます。コンテンツはビデオ内に存在する物体を特定し、モーションはそれらの動態を記述します。この前提に基づいて、我々はビデオ生成のためのモーションとコンテンツ分解型ジェネレーティブ・アドバーザリアル・ネットワーク(MoCoGAN)フレームワークを提案します。提案されたフレームワークは、一連のランダムベクトルをビデオフレームの系列にマッピングすることでビデオを生成します。各ランダムベクトルには、コンテンツ部分とモーション部分が含まれています。コンテンツ部分は固定されますが、モーション部分は確率過程として実現されます。無監督でモーションとコンテンツの分解を学習するために、画像識別器とビデオ識別器の両方を利用する新しい敵対的学習スキームを導入しました。複数の難易度の高いデータセットに対する広範な実験結果により、定性的および定量的な最新手法との比較を通じて、提案したフレームワークの有効性が確認されています。さらに、MoCoGANを使用することで同じコンテンツを持つ異なるモーションのビデオや異なるコンテンツを持つ同じモーションのビデオを生成できることが示されました。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています
MoCoGAN: 動画生成のための運動と内容の分解 | 記事 | HyperAI超神経