HyperAIHyperAI
il y a 3 mois

La syntaxe a-t-elle de l'importance ? Un modèle de référence solide pour l'analyse de sentiment axée sur les aspects avec RoBERTa

Junqi Dai, Hang Yan, Tianxiang Sun, Pengfei Liu, Xipeng Qiu
La syntaxe a-t-elle de l'importance ? Un modèle de référence solide pour l'analyse de sentiment axée sur les aspects avec RoBERTa
Résumé

L’analyse de sentiment basée sur les aspects (Aspect-based Sentiment Analysis, ABSA), qui vise à prédire les polarités associées aux aspects, constitue une tâche fine dans le domaine de l’analyse de sentiment. Les travaux antérieurs ont montré que l’information syntaxique, telle que les arbres de dépendance, peut améliorer efficacement les performances de l’ABSA. Récemment, les modèles pré-entraînés (Pre-trained Models, PTMs) ont également démontré leur efficacité sur cette tâche. Il s’ensuit naturellement la question suivante : les PTMs contiennent-ils une information syntaxique suffisante pour l’ABSA, permettant ainsi d’obtenir un bon modèle ABSA uniquement à partir de PTMs ? Dans cet article, nous comparons tout d’abord les arbres induits à partir de PTMs et les arbres de dépendance fournis par un parseur, sur plusieurs modèles populaires pour la tâche d’ABSA. Nos résultats montrent que l’arbre induit par RoBERTa fine-tuné (FT-RoBERTa) surpassent l’arbre fourni par le parseur. Des expériences d’analyse approfondie révèlent que l’arbre induit par FT-RoBERTa est davantage orienté vers les mots liés au sentiment, ce qui constitue un avantage pour la tâche d’ABSA. En outre, les expériences montrent qu’un modèle fondé uniquement sur RoBERTa peut surpasser ou s’approcher des performances les plus avancées (SOTA) sur six jeux de données couvrant quatre langues, car il intègre implicitement une information syntaxique adaptée à la tâche.

La syntaxe a-t-elle de l'importance ? Un modèle de référence solide pour l'analyse de sentiment axée sur les aspects avec RoBERTa | Articles de recherche | HyperAI