HyperAIHyperAI
il y a 2 mois

Apprentissage de représentations pour des séries temporelles multivariées avec données manquantes à l'aide d'autoencodeurs noyau temporels

Filippo Maria Bianchi; Lorenzo Livi; Karl Øyvind Mikalsen; Michael Kampffmeyer; Robert Jenssen
Apprentissage de représentations pour des séries temporelles multivariées avec données manquantes à l'aide d'autoencodeurs noyau temporels
Résumé

L'apprentissage de représentations compressées de séries temporelles multivariées (MTS) facilite l'analyse des données en présence de bruit et d'informations redondantes, ainsi que pour un grand nombre de variables et de pas de temps. Cependant, les approches classiques de réduction de dimensionnalité sont conçues pour des données vectorielles et ne peuvent pas traiter explicitement les valeurs manquantes. Dans ce travail, nous proposons une nouvelle architecture d'autoencodeur basée sur des réseaux neuronaux récurrents pour générer des représentations compressées de MTS. Le modèle proposé peut traiter des entrées caractérisées par des longueurs variables et est spécifiquement conçu pour gérer les données manquantes. Notre autoencodeur apprend des représentations vectorielles de longueur fixe, dont les similarités paires sont alignées à une fonction noyau qui opère dans l'espace d'entrée et qui gère les valeurs manquantes. Cela permet d'apprendre de bonnes représentations, même en présence d'une quantité importante de données manquantes. Pour démontrer l'efficacité de notre approche proposée, nous évaluons la qualité des représentations apprises dans plusieurs tâches de classification, y compris celles impliquant des données médicales, et nous comparons à d'autres méthodes de réduction de dimensionnalité. Ensuite, nous concevons deux cadres basés sur l'architecture proposée : l'un pour l'imputation des données manquantes et l'autre pour la classification mono-classe. Enfin, nous analysons dans quelles circonstances un autoencodeur avec des couches récurrentes peut apprendre de meilleures représentations compressées de MTS que les architectures à propagation avant.

Apprentissage de représentations pour des séries temporelles multivariées avec données manquantes à l'aide d'autoencodeurs noyau temporels | Articles de recherche récents | HyperAI