HyperAIHyperAI
vor 2 Monaten

Lernen von Darstellungen für multivariate Zeitreihen mit fehlenden Daten unter Verwendung von zeitlichen Kernel-Autoencodern

Filippo Maria Bianchi; Lorenzo Livi; Karl Øyvind Mikalsen; Michael Kampffmeyer; Robert Jenssen
Lernen von Darstellungen für multivariate Zeitreihen mit fehlenden Daten unter Verwendung von zeitlichen Kernel-Autoencodern
Abstract

Das Lernen kompakter Darstellungen von multivariaten Zeitreihen (MTS) erleichtert die Datenanalyse in Anwesenheit von Rauschen und redundanten Informationen sowie bei einer großen Anzahl von Variablen und Zeitschritten. Klassische Ansätze zur Dimensionsreduktion sind jedoch für vektorielle Daten ausgelegt und können nicht explizit mit fehlenden Werten umgehen. In dieser Arbeit schlagen wir eine neuartige Autoencoder-Architektur vor, die auf rekurrenten neuronalen Netzen basiert, um kompakte Darstellungen von MTS zu generieren. Das vorgeschlagene Modell kann Eingaben verarbeiten, die durch variable Längen gekennzeichnet sind, und ist speziell darauf ausgelegt, fehlende Daten zu behandeln. Unser Autoencoder lernt feste Vektordarstellungen, deren paarweise Ähnlichkeiten an eine Kernelfunktion ausgerichtet sind, die im Eingaberaum operiert und fehlende Werte behandelt. Dies ermöglicht es, auch bei erheblichen Mengen an fehlenden Daten gute Darstellungen zu lernen. Um die Effektivität des vorgeschlagenen Ansatzes zu demonstrieren, bewerten wir die Qualität der gelernten Darstellungen in mehreren Klassifizierungsaufgaben, darunter solchen mit medizinischen Daten, und vergleichen sie mit anderen Methoden zur Dimensionsreduktion. Anschließend entwerfen wir zwei Frameworks auf Basis der vorgeschlagenen Architektur: eines zur Imputation fehlender Daten und ein weiteres für die One-Class-Klassifizierung. Schließlich analysieren wir unter welchen Umständen ein Autoencoder mit rekurrenten Schichten bessere kompakte Darstellungen von MTS als feedforward-Architekturen lernen kann.