HyperAIHyperAI

Command Palette

Search for a command to run...

BERT comprend-il le sentiment ? Exploiter les comparaisons entre embeddings contextuels et non contextuels pour améliorer les modèles de sentiment basés sur les aspects

Natesh Reddy Pranaydeep Singh Muktabh Mayank Srivastava

Résumé

Lorsqu’on effectue une détection de polarité pour différents mots au sein d’une phrase, il est nécessaire d’examiner les mots environnants afin de comprendre le sentiment exprimé. Les modèles linguistiques préentraînés à grande échelle, tels que BERT, sont capables de coder non seulement les mots présents dans un document, mais également le contexte qui les entoure. Cela soulève naturellement deux questions : « Un modèle préentraîné encode-t-il automatiquement des informations de sentiment associées à chaque mot ? » et « Peut-il être utilisé pour inférer la polarité par rapport à différents aspects ? » Dans ce travail, nous cherchons à répondre à ces questions en démontrant qu’une comparaison entre un embedding contextuel issu de BERT et un embedding lexical générique peut être exploitée pour inférer le sentiment. Nous montrons également qu’en ajustant finement un sous-ensemble des poids d’un modèle construit sur cette comparaison, il est possible d’obtenir des résultats de pointe pour la détection de polarité dans les jeux de données de classification des sentiments basés sur les aspects.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp