要約
感情認識は、多数のモダリティから自動的に実行可能である。本論文では、音声特徴量と単語埋め込み(word embedding)を用いたカテゴリカルな音声感情認識を提案する。テキスト特徴量は音声特徴量と組み合わせることで感情認識の精度を向上させることができ、両方の特徴量は音声から得られる。本研究では、発話内の無音部分を除去した音声セグメントを用い、音声ベースの感情認識に向けた音響特徴量を抽出する。一方、単語埋め込みはテキスト感情認識の入力特徴量として用いられ、両者の特徴量を統合することで性能向上を図る手法を提案する。テキスト処理には2層の単方向LSTM(Long Short-Term Memory)を、音響特徴の感情認識には全結合層をそれぞれ適用する。その後、これらのネットワークを早期融合(early fusion)の方式で全結合層により統合し、4つの感情カテゴリのうち1つを予測する。実験結果から、音声とテキストの特徴量を統合した場合の認識精度は75.49%に達し、音声のみ(58.29%)またはテキストのみ(68.01%)の感情認識を上回ることが明らかになった。また、同一データセットおよび同一モダリティを用いた従来の手法と比較しても、本手法は優れた性能を示した。