Amélioration des dépendances topologiques dans les graphes spatio-temporels grâce aux blocs de passage de messages cycliques

Les réseaux neuronaux graphiques (GNNs) et les modèles basés sur les Transformers sont de plus en plus utilisés pour apprendre des représentations vectorielles complexes de graphes spatio-temporels, capturant des dépendances spatio-temporelles subtiles essentielles pour des applications telles que les ensembles de données de trafic. Bien que de nombreuses méthodes existantes utilisent des mécanismes d'attention multi-têtes et des réseaux neuronaux à passage de messages (MPNNs) pour capturer à la fois les relations spatiales et temporelles, ces approches codent les relations temporelles et spatiales de manière indépendante, reflétant les caractéristiques topologiques du graphe de manière limitée.Dans ce travail, nous présentons le Cycle to Mixer (Cy2Mixer), un nouveau GNN spatio-temporel basé sur des invariants topologiques non triviaux de graphes spatio-temporels avec des perceptrons multicouches à portes (gMLP). Le Cy2Mixer est composé de trois blocs basés sur des MLP : un bloc temporel pour capturer les propriétés temporelles, un bloc de passage de messages pour encapsuler l'information spatiale, et un bloc de passage de messages cyclique pour enrichir l'information topologique grâce aux sous-graphes cycliques. Nous renforçons l'efficacité du Cy2Mixer par une preuve mathématique soulignant que notre bloc de passage de messages cyclique est capable d'offrir une information différenciée au modèle d'apprentissage profond par rapport au bloc de passage de messages standard.De plus, des évaluations empiriques confirment l'efficacité du Cy2Mixer, démontrant des performances d'état de l'art sur divers ensembles de données spatio-temporels benchmark. Le code source est disponible à l'adresse \url{https://github.com/leemingo/cy2mixer}.