HyperAIHyperAI

Command Palette

Search for a command to run...

Génération de Texte Pratiquement Informatif

Sheng Shen† Daniel Fried† Jacob Andreas‡ Dan Klein†

Résumé

Nous améliorons l'informationnel des modèles pour la génération de texte conditionnelle en utilisant des techniques issues de la pragmatique computationnelle. Ces techniques formulent la production linguistique comme un jeu entre locuteurs et auditeurs, dans lequel un locuteur doit générer un texte de sortie que l'auditeur peut utiliser pour identifier correctement l'entrée d'origine décrite par ce texte. Bien que ces approches soient largement utilisées en psychologie cognitive et dans l'apprentissage de langages ancrés, elles ont reçu moins d'attention pour les tâches plus standard de génération de langage. Nous examinons deux méthodes de modélisation pragmatique pour la génération de texte : une où la pragmatique est imposée par la préservation de l'information, et une autre où elle est imposée par une modélisation explicite des distracteurs (distractors). Nous constatons que ces méthodes améliorent les performances des systèmes existants robustes pour le résumé abstraitif et la génération à partir de représentations structurées du sens.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Génération de Texte Pratiquement Informatif | Articles | HyperAI