HyperAIHyperAI
il y a 2 mois

Génération de texte à partir de données neuronales : Une comparaison entre les architectures en pipeline et en bout-à-bout

Thiago Castro Ferreira; Chris van der Lee; Emiel van Miltenburg; Emiel Krahmer
Génération de texte à partir de données neuronales : Une comparaison entre les architectures en pipeline et en bout-à-bout
Résumé

Traditionnellement, la plupart des applications de transformation de données en texte ont été conçues en utilisant une architecture de pipeline modulaire, dans laquelle les données d'entrée non linguistiques sont converties en langage naturel à travers plusieurs transformations intermédiaires. En revanche, les modèles neuronaux récents pour la génération de données en texte ont été proposés comme des approches bout-à-bout, où les données d'entrée non linguistiques sont rendues en langage naturel avec beaucoup moins de représentations intermédiaires explicites. Cette étude présente une comparaison systématique entre les approches neuronales par pipeline et bout-à-bout pour la génération de texte à partir de triples RDF. Les deux architectures ont été mises en œuvre en utilisant des méthodes d'apprentissage profond de pointe telles que l'encodeur-décodeur à Unités Récurrentes Gérées (GRU) et le Transformer. Les évaluations automatiques et humaines, ainsi qu'une analyse qualitative, suggèrent que disposer de pas intermédiaires explicites dans le processus de génération aboutit à des textes meilleurs que ceux générés par les approches bout-à-bout. De plus, les modèles par pipeline généralisent mieux aux entrées inconnues. Les données et le code sont disponibles publiquement.