HyperAIHyperAI

Command Palette

Search for a command to run...

Modélisation de la structure de graphe par position relative pour la génération de texte à partir de graphes de connaissances

Martin Schmitt Leonardo F. R. Ribeiro Philipp Dufter Iryna Gurevych Hinrich Schütze

Résumé

Nous présentons Graformer, une nouvelle architecture encodeur-décodeur basée sur le Transformer pour la génération de texte à partir de graphes. Grâce à notre mécanisme d'auto-attention graphique novateur, l'encodage d'un nœud dépend de tous les nœuds du graphe d'entrée, et non seulement de ses voisins directs, ce qui facilite la détection de motifs globaux. Nous représentons la relation entre deux nœuds par la longueur du plus court chemin les reliant. Graformer apprend à pondérer ces relations nœud-nœud différemment pour chaque tête d'attention, permettant ainsi virtuellement d'apprendre des vues différemment connectées du graphe d'entrée. Nous évaluons Graformer sur deux benchmarks populaires de génération de texte à partir de graphes, AGENDA et WebNLG, où il obtient des performances solides tout en utilisant beaucoup moins de paramètres que les autres approches.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp