2ヶ月前
再帰動態の統合による音声感情認識
Efthymios Tzinis; Georgios Paraskevopoulos; Christos Baziotis; Alexandros Potamianos

要約
私たちは、音声信号に埋め込まれた非線形再現動態を捉えることができる特徴量の性能を、音声感情認識(Speech Emotion Recognition: SER)タスクにおいて調査しました。各音声フレームの位相空間の再構成とその再現プロット(Recurrence Plot: RP)の計算により、複雑な構造が明らかになります。これらの構造は、再現量解析(Recurrence Quantification Analysis: RQA)を行うことで測定することができます。RQAの測定値は、セグメント期間と発話期間に対して統計的な関数を使って集約されます。本研究では、提案された特徴量セットを使用して3つのデータベースで異なる分類手法によるSER結果を報告します。提案された特徴量を伝統的な特徴量セットと融合した場合、基準モデルよりもスピーカー依存(Speaker-Dependent: SD)SERタスクでは最大5.7%、スピーカー非依存(Speaker-Independent: SI)SERタスクでは最大10.7%の未加重精度向上が示されました。セグメントベースアプローチを採用し、双方向再帰ニューラルネットワーク(Bidirectional Recurrent Neural Network)を使用することでIEMOCAPでの最先端の性能を達成しています。