HyperAIHyperAI

Command Palette

Search for a command to run...

Une Base Simple et Robuste pour le Parsing Discursif End-to-End de Style RST

Naoki Kobayashi Tsutomu Hirao Hidetaka Kamigaito Manabu Okumura Masaaki Nagata

Résumé

Pour promouvoir et développer davantage les modèles de segmentation discursive au style RST (Rhetorical Structure Theory), il est nécessaire d'avoir une ligne de base solide qui puisse servir de référence pour rapporter des résultats expérimentaux fiables. Cet article explore une telle ligne de base en intégrant des stratégies de parsing existantes et simples, tant descendantes que ascendantes, avec divers modèles de langage pré-entraînés basés sur les transformers. Les résultats expérimentaux obtenus à partir de deux jeux de données de référence montrent que les performances du parsing dépendent fortement des modèles de langage pré-entraînés plutôt que des stratégies de parsing. En particulier, le parser ascendante obtient des gains de performance importants par rapport au meilleur parser actuel lorsqu'il utilise DeBERTa. Nous révélons également, grâce à notre analyse dans le parsing intra- et inter-sentenciel ainsi que dans la prédiction de la nucléarité, que les modèles de langage utilisant un schéma d'occultation d'intervalles (span-masking) améliorent particulièrement les performances du parsing.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp