HyperAIHyperAI
il y a 17 jours

Apprentissage contrastif auto-supervisé pour la prévision à long terme

Junwoo Park, Daehoon Gwak, Jaegul Choo, Edward Choi
Apprentissage contrastif auto-supervisé pour la prévision à long terme
Résumé

La prévision à long terme soulève des défis uniques en raison de la complexité temporelle et mémoirelienne associée au traitement de séquences longues. Les méthodes existantes, qui reposent sur des fenêtres glissantes pour traiter ces séquences, peinent à capturer efficacement les variations à long terme partiellement incluses dans la fenêtre courte (c’est-à-dire les variations « hors fenêtre »). Dans cet article, nous proposons une nouvelle approche qui surmonte cette limitation en exploitant un apprentissage contrastif combiné à une architecture d’analyse améliorée, spécifiquement conçue pour se concentrer sur les variations à long terme. À cet effet, notre fonction de perte contrastive intègre la corrélation auto-associée globale présente dans toute la série temporelle, ce qui permet de construire de manière auto-supervisée des paires positives et négatives. Lorsqu’elle est combinée à nos réseaux de décomposition, notre méthode d’apprentissage contrastif améliore significativement les performances de prévision à long terme. Des expérimentations étendues montrent que notre approche surpasser 14 modèles de référence dans plusieurs expériences menées sur neuf benchmarks de prévision à long terme, en particulier dans des scénarios exigeant une sortie très longue. Le code source est disponible à l’adresse suivante : https://github.com/junwoopark92/Self-Supervised-Contrastive-Forecasting.