Command Palette
Search for a command to run...
VA-MoE : Mélange de Experts Adaptatif aux Variables pour la Prévision Climatique Incrementale
Hao Chen Han Tao Guo Song Jie Zhang Yunlong Yu Yonghan Dong Lei Bai

Résumé
Cet article présente VAMoE (Variables Adaptive Mixture of Experts), un cadre novateur pour la prévision météorologique incrémentielle, capable d’adapter dynamiquement ses performances aux évolutions des patterns spatio-temporels dans les données en temps réel. Les modèles traditionnels de prévision météorologique peinent souvent à gérer des coûts computationnels élevés, ainsi qu’à mettre à jour continuellement les prévisions à mesure que de nouvelles observations deviennent disponibles. VAMoE surmonte ces défis grâce à une architecture hybride d’experts, où chaque expert est spécialisé dans la capture de sous-structures distinctes des variables atmosphériques (température, humidité, vitesse du vent). En outre, la méthode proposée intègre un mécanisme de sélection adaptatif des experts basé sur les variables, qui permet de sélectionner et de combiner dynamiquement les experts pertinents en fonction du contexte d’entrée. Cette approche favorise une distillation efficace des connaissances et un partage de paramètres, réduisant ainsi significativement la charge computationnelle tout en préservant une haute précision prédictive. Des expériences menées sur le jeu de données réel ERA5 montrent que VAMoE atteint des performances comparables aux modèles de pointe (SoTA) dans les tâches de prévision à court terme (1 jour) comme à long terme (5 jours), tout en nécessitant seulement environ 25 % des paramètres entraînables et 50 % des données initiales d’entraînement.
Construire l'IA avec l'IA
De l'idée au lancement — accélérez votre développement IA avec du co-codage IA gratuit, un environnement prêt à l'emploi et les meilleurs prix GPU.