HyperAIHyperAI
vor 12 Tagen

Ein Tiefes Faltungsneuronales Netzwerk für die Zeitreihenklassifikation mit Zwischenzielen

{T. M. McGinnity, Georgina Cosma, Aboozar Taherkhani}
Ein Tiefes Faltungsneuronales Netzwerk für die Zeitreihenklassifikation mit Zwischenzielen
Abstract

Tief verbundene neuronale Netze (CNNs) wurden erfolgreich in verschiedenen Anwendungen eingesetzt, darunter der Bilderkennung. Zeitreihendaten, die in vielen Anwendungen wie Sensordatenverarbeitung entstehen, weisen gegenüber Bilddaten andere Eigenschaften auf, weshalb spezifische CNN-Architekturen zur Bearbeitung dieser Daten erforderlich sind. In diesem Artikel wird ein neues CNN für die Klassifizierung von Zeitreihendaten vorgestellt. Anstelle einer einzigen Ausgabe zur Steuerung der Gewichtsaktualisierung in den versteckten Schichten während des Trainings wird vorgeschlagen, neue Zwischenoutputs aus verschiedenen versteckten Schichten zu extrahieren. Diese Zwischenziele dienen als Etiketten für die Zwischenoutputs, um die Leistung des Verfahrens zu verbessern. Die Zwischenziele unterscheiden sich von dem Hauptziel. Zudem erhöht die vorgeschlagene Methode künstlich die Anzahl der Trainingsinstanzen durch Nutzung der ursprünglichen Trainingsbeispiele und der Zwischenziele. Der vorgeschlagene Ansatz transformiert ein Klassifikationsproblem mit ursprünglichen Trainingsbeispielen in ein neues (aber äquivalentes) Klassifikationsproblem mit zwei Klassen und einer hohen Anzahl von Trainingsinstanzen. Das vorgeschlagene CNN für die Zeitreihenklassifizierung, bezeichnet als CNN-TS, extrahiert Merkmale basierend auf der Distanz zweier Zeitreihen. CNN-TS wurde auf verschiedenen Benchmark-Datensätzen für Zeitreihen evaluiert. Die vorgeschlagene CNN-TS-Implementierung erreichte eine um 5,1 Prozentpunkte höhere Gesamtgenauigkeit im Vergleich zur Basis-CNN-Methode (ohne Zwischenschicht). Zudem erzielte CNN-TS eine um 21,1 Prozentpunkte höhere durchschnittliche Genauigkeit im Vergleich zu klassischen maschinellen Lernmethoden, nämlich linearem SVM, RBF-SVM und Random Forest (RF). Darüber hinaus war CNN-TS im Durchschnitt 8,43-mal schneller im Trainingszeitverlauf im Vergleich zur ResNet-Methode.

Ein Tiefes Faltungsneuronales Netzwerk für die Zeitreihenklassifikation mit Zwischenzielen | Neueste Forschungsarbeiten | HyperAI