HyperAIHyperAI
il y a 2 mois

Une Base Simple et Robuste pour le Parsing Discursif End-to-End de Style RST

Naoki Kobayashi; Tsutomu Hirao; Hidetaka Kamigaito; Manabu Okumura; Masaaki Nagata
Une Base Simple et Robuste pour le Parsing Discursif End-to-End de Style RST
Résumé

Pour promouvoir et développer davantage les modèles de segmentation discursive au style RST (Rhetorical Structure Theory), il est nécessaire d'avoir une ligne de base solide qui puisse servir de référence pour rapporter des résultats expérimentaux fiables. Cet article explore une telle ligne de base en intégrant des stratégies de parsing existantes et simples, tant descendantes que ascendantes, avec divers modèles de langage pré-entraînés basés sur les transformers. Les résultats expérimentaux obtenus à partir de deux jeux de données de référence montrent que les performances du parsing dépendent fortement des modèles de langage pré-entraînés plutôt que des stratégies de parsing. En particulier, le parser ascendante obtient des gains de performance importants par rapport au meilleur parser actuel lorsqu'il utilise DeBERTa. Nous révélons également, grâce à notre analyse dans le parsing intra- et inter-sentenciel ainsi que dans la prédiction de la nucléarité, que les modèles de langage utilisant un schéma d'occultation d'intervalles (span-masking) améliorent particulièrement les performances du parsing.

Une Base Simple et Robuste pour le Parsing Discursif End-to-End de Style RST | Articles de recherche récents | HyperAI