HyperAIHyperAI

Command Palette

Search for a command to run...

Pré-entraînement sur graphes pour l'analyse et la génération d'AMR

Xuefeng Bai Yulong Chen Yue Zhang

Résumé

La représentation sémantique abstraite (AMR) met en évidence les informations sémantiques fondamentales d’un texte sous une forme graphique. Récemment, les modèles de langage pré-entraînés (PLMs) ont permis des progrès significatifs dans les tâches de parsing AMR et de génération texte à partir d’AMR. Toutefois, les PLMs sont généralement pré-entraînés sur des données textuelles, ce qui les rend sous-optimisés pour modéliser les connaissances structurelles. À cette fin, nous explorons un apprentissage auto-supervisé sur graphes afin d’améliorer la prise en compte des structures au sein des PLMs sur des graphes AMR. Plus précisément, nous proposons deux stratégies d’auto-encodage graphique pour un pré-entraînement graphique à graphique, ainsi que quatre tâches visant à intégrer de manière cohérente les informations textuelles et graphiques durant le pré-entraînement. Nous avons également conçu un cadre unifié permettant de réduire l’écart entre les étapes de pré-entraînement et de fine-tuning. Les expériences menées sur les tâches de parsing AMR et de génération texte à partir d’AMR démontrent l’efficacité de notre modèle. À notre connaissance, nous sommes les premiers à envisager un pré-entraînement sur des graphes sémantiques.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Pré-entraînement sur graphes pour l'analyse et la génération d'AMR | Articles | HyperAI