Mélange Dynamique D'experts Du Programme LoRA
La méthode D-MoLE (Dynamic Mixture of Curriculum LoRA Experts) est une nouvelle méthode conçue pour l'optimisation continue de l'enseignement multimodal. Elle a été proposée par l'équipe de sécurité des contenus interactifs du département de sécurité du groupe Alibaba et de l'université Tsinghua le 13 juin 2025. Elle vise à permettre au modèle multimodal de langage étendu (MLLM) de s'adapter en permanence à de nouvelles tâches tout en conservant efficacement les connaissances existantes dans un cadre paramétrique limité. Les résultats de l'étude sont les suivants :Mélange dynamique d'experts LoRA du programme d'études pour un réglage continu de l'enseignement multimodal", le document a été inclus dans l'ICML 2025.
D-MoLE combine les concepts de LoRa et de Mixture of Experts (MoE) et introduit un mécanisme d'apprentissage curriculaire. Il sélectionne et combine dynamiquement différents modules LoRa pour s'adapter aux nouvelles tâches tout en minimisant les interférences avec les connaissances existantes. Des expériences approfondies démontrent que D-MoLE surpasse significativement les modèles de référence de pointe, avec une amélioration moyenne de 15% par rapport au meilleur modèle de référence. Il s'agit de la première étude de l'apprentissage continu dans les MLLM d'un point de vue architectural.