HyperAIHyperAI
vor einem Monat

Sequenzen mit rekurrenten neuronalen Netzen generieren

Alex Graves
Sequenzen mit rekurrenten neuronalen Netzen generieren
Abstract

Dieses Papier zeigt, wie rekurrente neuronale Netze mit Langzeit- und Kurzzeitgedächtnis (Long Short-Term Memory, LSTM) verwendet werden können, um komplexe Sequenzen mit langreichweitiger Struktur zu generieren, indem sie einfach einen Datenpunkt nach dem anderen vorhersagen. Der Ansatz wird anhand von Text (wo die Daten diskret sind) und Online-Schriftzug (wo die Daten reellwertig sind) demonstriert. Anschließend wird er auf die Schriftsynthese erweitert, indem das Netzwerk seine Vorhersagen auf einer Textsequenz bedingt. Das resultierende System ist in der Lage, hochrealistische kursive Handschriften in einer Vielzahl von Stilen zu generieren.