HyperAIHyperAI

Command Palette

Search for a command to run...

Ein Tiefes Faltungsneuronales Netzwerk für die Zeitreihenklassifikation mit Zwischenzielen

T. M. McGinnity Georgina Cosma Aboozar Taherkhani

Zusammenfassung

Tief verbundene neuronale Netze (CNNs) wurden erfolgreich in verschiedenen Anwendungen eingesetzt, darunter der Bilderkennung. Zeitreihendaten, die in vielen Anwendungen wie Sensordatenverarbeitung entstehen, weisen gegenüber Bilddaten andere Eigenschaften auf, weshalb spezifische CNN-Architekturen zur Bearbeitung dieser Daten erforderlich sind. In diesem Artikel wird ein neues CNN für die Klassifizierung von Zeitreihendaten vorgestellt. Anstelle einer einzigen Ausgabe zur Steuerung der Gewichtsaktualisierung in den versteckten Schichten während des Trainings wird vorgeschlagen, neue Zwischenoutputs aus verschiedenen versteckten Schichten zu extrahieren. Diese Zwischenziele dienen als Etiketten für die Zwischenoutputs, um die Leistung des Verfahrens zu verbessern. Die Zwischenziele unterscheiden sich von dem Hauptziel. Zudem erhöht die vorgeschlagene Methode künstlich die Anzahl der Trainingsinstanzen durch Nutzung der ursprünglichen Trainingsbeispiele und der Zwischenziele. Der vorgeschlagene Ansatz transformiert ein Klassifikationsproblem mit ursprünglichen Trainingsbeispielen in ein neues (aber äquivalentes) Klassifikationsproblem mit zwei Klassen und einer hohen Anzahl von Trainingsinstanzen. Das vorgeschlagene CNN für die Zeitreihenklassifizierung, bezeichnet als CNN-TS, extrahiert Merkmale basierend auf der Distanz zweier Zeitreihen. CNN-TS wurde auf verschiedenen Benchmark-Datensätzen für Zeitreihen evaluiert. Die vorgeschlagene CNN-TS-Implementierung erreichte eine um 5,1 Prozentpunkte höhere Gesamtgenauigkeit im Vergleich zur Basis-CNN-Methode (ohne Zwischenschicht). Zudem erzielte CNN-TS eine um 21,1 Prozentpunkte höhere durchschnittliche Genauigkeit im Vergleich zu klassischen maschinellen Lernmethoden, nämlich linearem SVM, RBF-SVM und Random Forest (RF). Darüber hinaus war CNN-TS im Durchschnitt 8,43-mal schneller im Trainingszeitverlauf im Vergleich zur ResNet-Methode.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp