HyperAIHyperAI

Command Palette

Search for a command to run...

個々の会話ジェスチャーのスタイルを学ぶ

Shiry Ginosar Amir Bar Gefen Kohavi Caroline Chan Andrew Owens Jitendra Malik

概要

人間の会話はしばしば手や腕のジェスチャーを伴います。本研究では、音声入力に基づいてその音に適したジェスチャーを生成します。具体的には、「自然環境下」で収録された単一話者のモノローグ音声から、その人の手と腕の動きをクローモーダル翻訳によって生成します。当該モデルは、ラベル付けされていないビデオデータを使用し、自動姿勢検出システムから得られるノイジーな疑似正解データのみで学習を行います。提案したモデルは定量的な比較においてベースライン手法を大幅に上回る性能を示しています。ジェスチャーと音声の関係性に対する計算的な理解を得るための研究を支援する目的で、大規模な個人特異的ジェスチャービデオデータセットを公開しています。プロジェクトウェブサイト(http://people.eecs.berkeley.edu/~shiry/speech2gesture)では、ビデオ、コード、データにアクセスできます


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています
個々の会話ジェスチャーのスタイルを学ぶ | 記事 | HyperAI超神経