HyperAIHyperAI
il y a 2 mois

Neural AMR : Modèles de séquence à séquence pour l'analyse et la génération

Ioannis Konstas; Srinivasan Iyer; Mark Yatskar; Yejin Choi; Luke Zettlemoyer
Neural AMR : Modèles de séquence à séquence pour l'analyse et la génération
Résumé

Les modèles de séquence à séquence ont démontré des performances solides dans une large gamme d'applications. Cependant, leur utilisation pour l'analyse syntaxique et la génération de texte en utilisant la Représentation Abstraite du Sens (AMR) a été limitée, en raison de la quantité relativement limitée de données étiquetées et de la nature non séquentielle des graphes AMR. Nous présentons une nouvelle procédure d'entraînement qui peut lever cette limitation en utilisant des millions de phrases non étiquetées et un prétraitement soigneux des graphes AMR. Pour l'analyse syntaxique AMR, notre modèle obtient des résultats compétitifs avec un score SMATCH de 62,1, le meilleur score actuellement rapporté sans un usage significatif de ressources sémantiques externes. Pour la génération AMR, notre modèle établit une nouvelle performance de pointe avec un BLEU de 33,8. Nous présentons une analyse ablatives et qualitative approfondie, incluant des preuves solides que les modèles AMR basés sur des séquences sont robustes face aux variations d'ordre lors des conversions graphe-séquence.

Neural AMR : Modèles de séquence à séquence pour l'analyse et la génération | Articles de recherche récents | HyperAI