HyperAIHyperAI

Command Palette

Search for a command to run...

Entraînement multi-vue et multi-tâche des parseurs discursifs RST

Anders S\ogaard Barbara Plank Chlo\'e Braud

Résumé

Nous expérimentons différentes approches d'entraînement des réseaux LSTM afin de prédire des arbres discursifs RST. Le défi principal du traitement syntaxique discursif RST réside dans la quantité limitée de données d'entraînement. Pour y remédier, nous régularisons nos modèles en exploitant une supervision par tâche provenant de tâches connexes ainsi que des perspectives alternatives sur les structures discursives. Nous démontrons qu'un parseur séquentiel discursif basé sur un LSTM simple tire pleinement parti de ce cadre multi-vues et multi-tâches, obtenant une réduction de 12 à 15 % de l’erreur par rapport à notre modèle de référence (selon le métrique utilisée), avec des résultats compétitifs par rapport aux parseurs d’état de l’art plus complexes.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Entraînement multi-vue et multi-tâche des parseurs discursifs RST | Articles | HyperAI