Apprentissage de la représentation de séries temporelles par contraste temporel et contextuel

L'apprentissage de représentations adéquates à partir de données temporelles non étiquetées avec des dynamiques temporelles est une tâche très complexe. Dans cet article, nous proposons un cadre d'apprentissage non supervisé de représentations de séries temporelles par contraste temporel et contextuel (TS-TCC) pour apprendre des représentations de séries temporelles à partir de données non étiquetées. Tout d'abord, les données brutes de séries temporelles sont transformées en deux vues différentes mais corrélées en utilisant des augmentations faibles et fortes. Ensuite, nous introduisons un nouveau module de contraste temporel pour apprendre des représentations temporelles robustes en concevant une tâche de prédiction inter-vues difficile. Enfin, pour approfondir l'apprentissage de représentations discriminantes, nous proposons un module de contraste contextuel basé sur les contextes issus du module de contraste temporel. Ce module cherche à maximiser la similarité entre différents contextes du même échantillon tout en minimisant la similarité entre les contextes d'échantillons différents. Des expériences ont été menées sur trois jeux de données réels de séries temporelles. Les résultats montrent que l'entraînement d'un classifieur linéaire sur les caractéristiques apprises par notre TS-TCC proposé performe aussi bien que l'entraînement supervisé. De plus, notre TS-TCC proposé démontre une haute efficacité dans les scénarios où peu de données sont étiquetées et dans le cadre du transfert d'apprentissage. Le code est disponible au public sur https://github.com/emadeldeen24/TS-TCC.