Est-ce Que Ta Petite Amie Est En Colère ? Les Algorithmes La Comprennent Mieux Que Les Hommes Hétéros

Il existe généralement deux manières d’utiliser la technologie de l’IA pour juger les émotions d’une personne : l’une via les expressions faciales et l’autre via la voix. La première est déjà relativement mature, tandis que la recherche sur l’émotion dans la reconnaissance vocale se développe rapidement. Récemment, certaines équipes de recherche scientifique ont proposé de nouvelles méthodes pour identifier plus précisément les émotions dans la voix des utilisateurs.
Il existe de nombreux articles sur Zhihu à propos de Comment savoir si votre petite amie est en colèreLorsqu'on leur posait ce genre de questions, certaines personnes répondaient : Moins il y a de mots, plus le sujet est important ; d’autres ont dit : Si je suis vraiment en colère, je ne vous contacterai pas pendant un mois ; Si je fais semblant d’être en colère, j’agirai de manière coquette et dirai « Je suis en colère ».

Donc, le « Je ne suis pas en colère/vraiment pas en colère » d’une petite amie = « très en colère » ; « Je suis en colère » = « fais comme un enfant gâté, je ne suis pas en colère, fais-moi juste des bisous, des câlins et soulève-moi ». Ce genre de logique émotionnelle rend les hommes hétéros fous.

Comment puis-je savoir si ma petite amie est en colère ou non ?On dit que l’IA a réalisé des progrès dans l’identification des émotions en écoutant de la musique, et les résultats pourraient être plus précis que ceux d’un garçon se grattant la tête et réfléchissant pendant longtemps.
Assistant vocal Alexa : cultiver une personnalité chaleureuse et attentionnée
L'assistant vocal d'Amazon, Alexa, est peut-être plus intelligent que votre petit ami lorsqu'il s'agit de ressentir des émotions.
Cette année, après la dernière mise à jour, Alexa a puAnalysez la hauteur et le volume des commandes de l'utilisateur, identifiez les émotions telles que le bonheur, la joie, la colère, la tristesse, l'irritabilité, la peur, le dégoût, l'ennui et même le stress, et répondez aux commandes correspondantes.

Par exemple, si une fille se mouche et tousse tout en disant à Alexa qu'elle a un peu faim, Alexa analysera le ton de sa voix (faible, grave) et le bruit de fond (toux, se moucher) et conclura qu'elle est probablement malade, puis enverra des informations bienveillantes depuis la machine : Voulez-vous un bol de soupe au poulet ou à emporter ? Ou même commander une bouteille de sirop contre la toux en ligne et la faire livrer à votre porte dans l'heure ?
Ce comportement n’est-il pas plus attentionné que celui d’un petit ami hétéro ?
L’intelligence artificielle pour la classification des émotions n’est pas une nouveauté, mais récemment, Amazon Alexa Speech L’équipe a rompu avec les méthodes traditionnelles il y a quelque temps et a publié de nouveaux résultats de recherche.
Les méthodes traditionnelles sont supervisées et les données de formation obtenues ont été étiquetées en fonction de l'état émotionnel de l'orateur. Les scientifiques de l’équipe Alexa Speech d’Amazon ont récemment adopté une approche différente et ont publié un article présentant leur approche lors de la Conférence internationale sur l’acoustique, la parole et le traitement du signal (ICASSP).« Améliorer la classification des émotions grâce à l'inférence variationnelle des variables latentes » (http://t.cn/Ai0se57g)

Au lieu de former le système sur un corpus de données de sentiment entièrement annotées, ils ont fourni unAutoencodeur contradictoire (AAE). Il s'agit d'une vidéo avec 10 intervenants différents. 10,000 individuelUn ensemble de données publiques d’énoncés.
Les résultats de leur étude ont montré qu'en jugeant les voix des gensPuissance(valence émotionnelle) ouValeur sentimentale(valeur émotionnelle), le réseau neuronalPrécision améliorée de 4 %.Grâce aux efforts de l’équipe, l’humeur ou l’état émotionnel de l’utilisateur peut être déterminé de manière fiable grâce à la voix de l’utilisateur.

Viktor Rozgic, co-auteur de l'article et scientifique principal appliqué au sein du groupe Alexa Speech, a expliqué qu'un auto-encodeur antagoniste est un modèle en deux parties qui contient un encodeur : un encodeur et un décodeur. L'encodeur apprend à générer une représentation compacte (ou latente) de la parole d'entrée qui encode toutes les propriétés des exemples d'apprentissage ; le décodeur reconstruit l'entrée à partir de la représentation compacte.

Les représentations émotionnelles des chercheurs sontTrois nœuds de réseauLes trois nœuds du réseau sont utilisés respectivement pour trois mesures d'émotions :Puissance,activation(activation, que le locuteur soit alerte, engagé ou passif), etDomination(L'orateur se sent-il contrôlé par la situation environnante).
Points d'entraînementTrois étapesconduire. La première étape entraîne l’encodeur et le décodeur séparément à l’aide de données non étiquetées. La deuxième étape est l’entraînement contradictoire, une technique dans laquelle le discriminateur contradictoire tente de faire la distinction entre les représentations réelles produites par l’encodeur et les représentations artificielles. Cette étape permet de régler l'encodeur. Dans la troisième étape, l’encodeur est ajusté pour garantir que la représentation des émotions latentes est utilisée pour prédire les étiquettes d’émotion des données d’entraînement.
Dans des expériences « conçues à la main » impliquant des représentations de caractéristiques au niveau des phrases pour capturer des informations sur les signaux vocaux, leur système d'IA était 3 % plus précis pour évaluer la valence qu'un réseau traditionnellement formé.
De plus, ils montrent que lorsque le réseau était alimenté par une séquence de propriétés acoustiques représentant des trames de 20 millisecondes (ou des clips audio), les performances étaient améliorées de 4%.
Un laboratoire du MIT construit un réseau neuronal capable de détecter la colère en 1,2 seconde
Amazon n’est pas la seule entreprise à travailler sur une meilleure détection des émotions basée sur la voix.MIT Media Lab Affectiva Récemment, un réseau neuronal SoundNet a été démontré : il peut En 1,2 seconde(Dépassant le temps qu'il faut aux humains pour percevoir la colère) Classez la colère et les données audio, quelle que soit la langue.

Dans un nouvel article, des chercheurs d'Affectiva 《Apprentissage par transfert à partir de représentations sonores pour la détection de la colère dans la parole》(https://arxiv.org/pdf/1902.02120.pdf)Le système est décrit dans .Il s’appuie sur les données vocales et faciales pour créer des profils émotionnels.
Pour tester la généralisabilité du modèle d’IA, l’équipe a évalué un modèle formé sur des données émotionnelles de la parole en chinois mandarin (le Mandarin Affective Corpus, ou MASC) à l’aide d’un modèle formé en anglais. En conséquence, ilNon seulement il se généralise bien aux données vocales en anglais, mais il fonctionne également bien sur les données chinoises, bien que les performances diminuent légèrement.

« La reconnaissance de la colère a un large éventail d’applications, notamment les interfaces conversationnelles et les robots sociaux, les systèmes de réponse vocale interactive (RVI), les études de marché, l’évaluation et la formation des agents clients, ainsi que la réalité virtuelle et augmentée », a déclaré l’équipe.
Les travaux futurs développeront d’autres grands corpus publics et formeront des systèmes d’IA pour des tâches connexes basées sur la parole, telles que la reconnaissance d’autres types d’émotions et d’états affectifs.
Une application israélienne reconnaît les émotions : taux de précision 80%
startups israéliennes Au-delà du verbal Une application appelée Moodies a été développée, qui peut collecter la voix de l'orateur via un microphone et déterminer les caractéristiques émotionnelles de l'orateur après environ 20 secondes d'analyse.

Bien que les experts en analyse de la parole reconnaissent que le langage et les émotions sont corrélés, de nombreux experts remettent en question la précision de ces mesures en temps réel : les échantillons sonores collectés par ces outils sont très limités et l'analyse réelle peut nécessiter la collecte d'échantillons pendant plusieurs années.
« Avec l’état actuel des neurosciences cognitives, nous ne disposons tout simplement pas de la technologie nécessaire pour vraiment comprendre les pensées ou les émotions d’une personne », a déclaré Andrew Baron, professeur adjoint de psychologie à l’Université de Columbia.
Cependant, Dan Emodi, vice-président du marketing chez Beyond Verbal, a déclaré que Moodies a mené des recherches pendant plus de trois ans et, sur la base des commentaires des utilisateurs,La précision de l’analyse appliquée est d’environ 80%.
Beyond Verbal a déclaré que Moodies peut être utilisé pour le diagnostic auto-émotionnel, le centre de service client pour gérer les relations clients et même pour détecter si les candidats à un emploi mentent. Bien sûr, vous pouvez également l'amener sur une scène de rencontre pour voir si l'autre personne est vraiment intéressée par vous.
La reconnaissance vocale des émotions reste confrontée à des défis
Bien que de nombreuses entreprises technologiques mènent des recherches dans ce domaine depuis de nombreuses années et ont obtenu de bons résultats. Cependant, comme Andrew Baron l’a mentionné ci-dessus, cette technologie est confrontée à plusieurs défis.
Tout comme le calme « Je ne suis pas en colère » d’une petite amie ne signifie pas qu’elle n’est pas vraiment en colère, une prononciation peut contenir une variété d’émotions.Les frontières entre les différentes émotions sont également difficiles à définir, quelle émotion est l'émotion dominante actuelle ?
Tous les tons ne sont pas évidents et intenses ; Exprimer ses émotions est une question hautement personnalisée qui varie considérablement selon l’individu, l’environnement et même la culture.
De plus, une humeur peut durer longtemps, mais il y aura également des changements rapides d’humeur au cours de cette période.Le système de reconnaissance des émotions détecte-t-il les émotions à long terme ou à court terme ?Par exemple, quelqu’un souffre du chômage, mais est brièvement heureux grâce à l’attention de ses amis. Mais en fait, il est toujours triste. Comment l’IA devrait-elle définir son état ?
Un autre point inquiétant est que, une fois que ces produits pourront comprendre les émotions des gens, poseront-ils davantage de questions privées et obtiendront-ils davantage d’informations sur les utilisateurs en raison de leur dépendance à leur égard,Transformer « service » en « transaction » ?
J'espère que tu auras Dabai et quelqu'un qui te comprend vraiment.
Beaucoup de gens souhaitent avoir un Baymax chaleureux et attentionné. Ce robot doté d’une intelligence émotionnelle élevée, qui n’existe que dans les animations de science-fiction, deviendra-t-il une réalité dans le futur ?

À l’heure actuelle, de nombreux chatbots manquent encore d’intelligence émotionnelle et sont incapables de percevoir les petites émotions des utilisateurs, ce qui conduit souvent à l’échec des conversations. Par conséquent, les personnes qui peuvent vraiment vous comprendre sont toujours celles qui restent à vos côtés et vous écoutent.
-- sur--