HyperAI超神経

あなたのガールフレンドは怒っていますか?アルゴリズムは異性愛者よりも彼女のことをよく理解している

特色图像

AI テクノロジーを使用して人の感情を判断する方法は通常 2 つあり、1 つは表情によるもの、もう 1 つは音声によるものです。前者は比較的成熟していますが、音声認識における感情の研究は急速に発展しています。最近、一部の科学研究チームは、ユーザーの声の中の感情をより正確に識別するための新しい方法を提案しました。

Zhihuについてはたくさんあります 「彼女が怒っているかどうかを見分ける方法」このような質問に対して、ある人は「言葉が少ないほど問題は大きくなる」と答え、またある人は「本当に怒っているなら、怒っているふりをしているなら一ヶ月は連絡しないだろう」と答えました。 "私は怒っています。"

「あなたの彼女は怒っていますか?」

したがって、彼女の「私は怒っていません/本当に怒っていません」=「とても怒っています」;「私は怒っています」=「怒っていない、キスをしたり抱き締めたり、抱きしめたりするような態度をとります」。この種の感情的なロジックは異性愛者を狂わせます。

恋人の気持ちが全く感じられない。

あなたのガールフレンドが怒っているかどうかどうやってわかりますか?AIは音楽を聴くことで感情を認識する成果を上げていると言われており、少年が長時間頭をかいた結果よりも正確かもしれません。

Alexa 音声アシスタント: 温かい男になるための練習

Amazon の音声アシスタント Alexa は、感情を感知することに関しては彼氏よりも賢いかもしれません。

今年、最新のアップグレード後、Alexa は次のことができるようになりました。ユーザーの指示のレベルや量などの反応を分析し、幸福、喜び、怒り、悲しみ、イライラ、恐怖、嫌悪、退屈、さらにはストレスなどの感情を特定し、対応する指示に応答します。

たとえば、女の子が鼻をかむと同時に咳き込み、少しお腹が空いたとAlexaに伝えると、Alexaは女の子の声の調子(弱い、低い)と背景音(咳、鼻をかむ音)を分析します。病気の場合は、機械から思いやりのあるメッセージが届きます。「チキンスープを一杯飲みますか、それともテイクアウトを注文しますか?」あるいは、咳止めシロップのボトルをオンラインで注文すると、1 時間以内に自宅まで配達してもらえますか?

この行動は真面目な彼氏よりも気を遣っているのでしょうか?

しかし、最近では Amazon が感情を分類するための人工知能を開発しました。 アレクサのスピーチ  研究チームは少し前に従来の手法を打ち破り、新たな研究結果を発表した。

従来の手法は監視されており、取得されたトレーニング データは話者の感情状態に応じてラベル付けされています。 Amazon の Alexa Speech チームの科学者たちは最近、別のアプローチを採用し、音響、音声、信号処理に関する国際会議 (ICASSP) でこれを紹介する論文を発表しました。「潜在変数の変分推論による感情分類の改善」 (http://t.cn/Ai0se57g)

よく注釈が付けられた「感情」コーパスでシステムをトレーニングする代わりに、彼らは敵対的オートエンコーダー (AAE)。 10人の異なるスピーカーによるプログラムです 10,000 個人の談話の公開データセット。

彼らが発見したのは、人々の声を判断する際に、ヴァランス(感情価) または感情的価値(感情的価値)、ニューラルネットワークの精度が4%向上しました。チームの努力により、ユーザーの気分や感情状態をユーザーの声から確実に判断できます。

AAEモデル原理図

この論文の共著者であり、Alexa Speech グループのシニア アプリケーション サイエンティストである Viktor Rozgic 氏は、敵対的オートエンコーダは、エンコーダとデコーダという 2 つの部分からなるモデルであると説明しました。エンコーダは、入力音声のコンパクトな(または潜在的な)表現を生成することを学習し、トレーニング例のすべてのプロパティをエンコードします。一方、デコーダはコンパクトな表現から入力を再構築します。

オートエンコーダに対するアーキテクチャ

研究者の感情表現は次のように表されます。3つのネットワークノード3 つの感情測定にそれぞれ使用される 3 つのネットワーク ノードで構成されます。ヴァランスアクティベーション(活性化、話者が警戒しているか、熱心に取り組んでいるか、受動的かどうか)、および支配する(話者は周囲の状況に支配されていると感じますか)。

トレーニングポイント3段階行為。最初のステージでは、ラベルのないデータを使用して、エンコーダーとデコーダーを個別にトレーニングします。第 2 段階は、敵対的トレーニングです。敵対的識別器は、エンコーダーによって生成された実際の表現を人工的な表現手法から区別しようとします。この段階は、エンコーダーを調整するために使用されます。第 3 段階では、基礎となる感情表現がトレーニング データの感情ラベルを予測できるようにエンコーダーが調整されます。

音声信号に関する情報を取得するために、文レベルの特徴表現を含む「手作業で設計された」実験では、同社の AI システムは、従来のトレーニングを受けたネットワークよりも価数の推定精度が 3% 高くなりました。

さらに、20 ミリ秒のフレーム (またはオーディオ クリップ) の音響特性を表す一連のシーケンスをネットワークに供給すると、4% によってパフォーマンスが向上することも示しました。

MITの研究室が1.2秒で怒りを感知するニューラルネットワークを構築

音声ベースの感情検出の改善に取り組んでいるのはアマゾンだけではない。MIT メディア ラボ アフェクティバ  最近、ニューラル ネットワーク SoundNet が実証されました。 1.2秒以内(すでに人間が怒りを知覚する時間を超えている) 言語を問わず、音声データで怒りを分類。

新しい論文で、Affectivaの研究者は 音声表現からの転移学習による音声中の怒りの検出》(https://arxiv.org/pdf/1902.02120.pdf)このシステムについては、 で説明します。音声と顔のデータに基づいて感情プロファイルを作成します。

AI モデルの一般化可能性をテストするために、チームは英語でトレーニングされたモデルを使用して、中国語の音声感情データ (中国語感情コーパス、または MASC) でトレーニングされたモデルを評価しました。結果的にそれが起こる英語の音声データによく一般化するだけでなく、パフォーマンスは若干低下しますが、中国語のデータにもうまく機能します。

英語と中国語のトレーニング結果の ROC 曲線破線はランダム分類子の ROC を表します。 

「怒りの認識は、会話型インターフェースやソーシャルロボット、自動音声応答(IVR)システム、市場調査、顧客エージェントの評価とトレーニング、仮想現実や拡張現実など、幅広い応用が可能だ」と研究チームは述べている。

今後の研究では、他の大規模な公共コーパスを開発し、他のタイプの感情や感情状態の識別など、関連する音声ベースのタスク用の AI システムをトレーニングする予定です。

イスラエルのアプリが感情を認識: 精度 80%

イスラエルのスタートアップ 言葉を超えて  Moodies と呼ばれるアプリケーションが開発されました。このアプリケーションはマイクを通じて話者の声を収集し、約 20 秒の分析後に話者の感情的特徴を判断します。

Moodies には、リズム、時間、音量、間、エネルギーなど、話者の感情面を分析する特別なアルゴリズムがあります。

音声分析の専門家は言語と感情の相関関係を認めていますが、多くの専門家はこのリアルタイム測定の精度に疑問を抱いています。そのようなツールで収集される音声サンプルは非常に限られており、実際の分析にはサンプルの収集に数年かかる場合があります。

コロンビア大学のアンドリュー・バロン助教授(心理学)は、「現在の認知神経科学のレベルでは、人の思考や感情を真に理解する技術がまったくありません」と述べた。

しかし、Beyond Verbal のマーケティング担当副社長である Dan Emodi 氏は、ユーザーからのフィードバックに基づいて Moodies について 3 年以上研究を行った結果、次のように述べています。応用解析の精度は約80%です。

Beyond Verbal氏によると、Moodiesは自己感情診断やカスタマーサービスセンターでの顧客関係の処理、さらには求職者が嘘をついているかどうかの検出にも利用できるという。もちろん、相手が本当に興味を持っているかどうかを確認するためにデートの場面に導入することもできる。あなたの中で。

音声感情認識は依然として課題に直面している

ただし、多くのテクノロジー企業がこの分野で長年研究を行っており、良好な成果を上げています。ただし、アンドリュー・バロン氏が上で質問したように、このテクノロジーは依然として複数の課題に直面しています。

ガールフレンドが穏やかに「私は怒っていません」と言うのと同じように、彼女が本当に怒っていないことを意味するわけではありません。さまざまな感情の境界線を定義することも困難です、現在支配的な感情はどれですか?

すべてのトーンが明白で激しいわけではありません。感情の表現は非常に個人的な問題であり、個人、環境、さらには文化によって大きく異なります。

また、一つの感情が長く続くこともありますが、途中で気分が急激に変化することもあります。感情認識システムは長期的な感情を検出しますか?それとも短期的な感情を検出しますか?たとえば、ある人は失業の苦しみにありますが、この期間中、友人の心配のおかげで一時的に幸せになりましたが、実際にはまだ悲しい状態にあります。AI は彼の状態をどのように定義すればよいでしょうか。

もう 1 つの懸念点は、これらの製品が人の感情を理解できるようになったとき、製品に依存するあまり、よりプライバシーに関する質問をしたり、ユーザーに関するさまざまな情報を取得したりするのではないかということです。「サービス」を「ビジネス」に変えるには?

あなたにダバイとあなたを本当に理解してくれる人がいますように

多くの人が温かく思いやりのあるベイマックスを望んでいますが、SF アニメにのみ登場するこの高 EQ ロボットは将来実現するのでしょうか。

シャオビンに非常に低姿勢でゆっくりと話しかけると、冷酷な返事が返ってきた

現時点では、多くのチャットボットは依然として心の知能指数を持たず、ユーザーの些細な感情を感知することができず、死ぬほどチャットすることがよくあります。したがって、あなたのことを本当に理解できる人は、やはりあなたのそばにいてあなたの話を聞いてくれる人です。

- 以上 -