vor einem Monat
Sequenzen mit rekurrenten neuronalen Netzen generieren
Alex Graves

Abstract
Dieses Papier zeigt, wie rekurrente neuronale Netze mit Langzeit- und Kurzzeitgedächtnis (Long Short-Term Memory, LSTM) verwendet werden können, um komplexe Sequenzen mit langreichweitiger Struktur zu generieren, indem sie einfach einen Datenpunkt nach dem anderen vorhersagen. Der Ansatz wird anhand von Text (wo die Daten diskret sind) und Online-Schriftzug (wo die Daten reellwertig sind) demonstriert. Anschließend wird er auf die Schriftsynthese erweitert, indem das Netzwerk seine Vorhersagen auf einer Textsequenz bedingt. Das resultierende System ist in der Lage, hochrealistische kursive Handschriften in einer Vielzahl von Stilen zu generieren.