LSTM-Vollkonvolutionale Netzwerke für die Klassifizierung von Zeitreihen

Vollkonvolutive Neuronale Netze (FCN) haben sich als Stand der Technik bei der Klassifizierung von Zeitreihenfolgen erwiesen. Wir schlagen die Erweiterung vollkonvolutiver Netze um Untermoduln aus Langzeit- und Kurzzeitgedächtnis-Rekurrenten Neuronalen Netzen (LSTM RNN) für die Klassifizierung von Zeitreihen vor. Unsere vorgeschlagenen Modelle verbessern die Leistungsfähigkeit vollkonvolutiver Netze erheblich mit nur geringfügig erhöhter Modellgröße und erfordern eine minimale Vorbearbeitung des Datensatzes. Das vorgeschlagene Langzeit- und Kurzzeitgedächtnis-Vollkonvolutive Netz (LSTM-FCN) erreicht vergleichsweise den Stand der Technik im Vergleich zu anderen Methoden. Darüber hinaus untersuchen wir die Verwendung von Aufmerksamkeitsmechanismen, um die Klassifizierung von Zeitreihen mit dem Aufmerksamkeits-Langzeit- und Kurzzeitgedächtnis-Vollkonvolutiven Netz (ALSTM-FCN) zu verbessern. Die Nutzung des Aufmerksamkeitsmechanismus ermöglicht es, den Entscheidungsprozess der LSTM-Zelle zu visualisieren. Zudem schlagen wir Feinabstimmung als Methode zur Verbesserung der Leistungsfähigkeit trainierter Modelle vor. Eine umfassende Analyse der Leistungsfähigkeit unseres Modells wird bereitgestellt und mit anderen Techniken verglichen.