Attention et régularisation du lexique pour LSTM dans l'analyse de sentiment axée sur les aspects

Les systèmes d'apprentissage profond basés sur l'attention se sont révélés être l'approche de pointe pour l'analyse de sentiment au niveau des aspects. Toutefois, les réseaux neuronaux profonds en boucle fermée manquent de souplesse, car il est difficile d'ajuster facilement le modèle pour corriger un problème évident, en particulier lorsque des données d'entraînement supplémentaires ne sont pas disponibles : par exemple, lorsqu'il prédit systématiquement « positif » en rencontrant le mot « déçu ». Par ailleurs, on prête moins d'attention au fait que le mécanisme d'attention a tendance à « surconcentrer » son focus sur certaines parties d'une phrase, tout en ignorant des positions qui pourtant contiennent des informations clés pour déterminer la polarité. Dans cet article, nous proposons une approche simple mais efficace pour intégrer des informations lexicales, afin de rendre le modèle plus souple et plus robuste. Nous explorons également l'effet de la régularisation des vecteurs d'attention, permettant au réseau d'avoir un champ de vision plus étendu sur différentes parties de la phrase. Les résultats expérimentaux démontrent l'efficacité de notre approche.