Amélioration des MLPs par une stratégie de grossissement pour la prévision à long terme des séries temporelles

Les méthodes d’apprentissage profond ont démontré leur efficacité dans la prévision à long terme des séries temporelles. Toutefois, elles peinent souvent à trouver un équilibre entre une puissance expressive élevée et une efficacité computationnelle satisfaisante. L’usage de réseaux de perceptrons multicouches (MLP) constitue une solution de compromis, mais ces derniers souffrent de deux problèmes critiques dus à leur mode d’application ponctuelle intrinsèque : une dépendance contextuelle insuffisante et un manque d’effet de goulot d’étranglement d’information. Dans ce travail, nous proposons le Coarsened Perceptron Network (CP-Net), un modèle caractérisé par une stratégie de grossissement qui atténue ces limitations des MLP classiques en remplaçant les points temporels isolés par des granulés d’information. Le CP-Net repose principalement sur un cadre en deux étapes permettant d’extraire des motifs sémantiques et contextuels, préservant ainsi les corrélations sur des intervalles temporels étendus tout en filtrant les bruits volatils. Cette capacité est renforcée par une configuration multi-échelle, où des motifs de différentes granularités sont fusionnés pour produire une prédiction globale et cohérente. Fondé uniquement sur des convolutions de simplicité structurelle, le CP-Net parvient à maintenir une complexité computationnelle linéaire et un temps d’exécution faible, tout en atteignant une amélioration de 4,1 % par rapport à la méthode de l’état de l’art sur sept benchmarks de prévision.