HyperAIHyperAI
il y a un mois

Génération de séquences avec des réseaux de neurones récurrents

Alex Graves
Génération de séquences avec des réseaux de neurones récurrents
Résumé

Ce document montre comment les réseaux de neurones récurrents à mémoire à court et long terme (LSTM) peuvent être utilisés pour générer des séquences complexes avec une structure à longue portée, simplement en prédiction un point de données à la fois. Cette approche est démontrée pour le texte (où les données sont discrètes) et l'écriture manuscrite en ligne (où les données sont à valeurs réelles). Elle est ensuite étendue à la synthèse d'écriture manuscrite en permettant au réseau de conditionner ses prédictions sur une séquence de texte. Le système résultant est capable de générer une écriture cursive manuscrite hautement réaliste dans une grande variété de styles.