Dynamische Mischung Aus Curriculum-LoRA-Experten
Die Dynamic Mixture of Curriculum LoRA Experts (D-MoLE) ist eine neue Methode zur kontinuierlichen Feinabstimmung multimodaler Anweisungen, die vom Interactive Content Security Team der Alibaba Group Security Department und der Tsinghua University am 13. Juni 2025 vorgeschlagen wurde. Ziel ist es, das multimodale Large Language Model (MLLM) kontinuierlich an neue Aufgaben anzupassen und gleichzeitig vorhandenes Wissen bei begrenztem Parameterbudget effektiv zu erhalten. Die Ergebnisse der Studie lauten:Dynamische Mischung von Curriculum-LoRA-Experten für die kontinuierliche Optimierung des multimodalen Unterrichts", das Papier wurde in ICML 2025 aufgenommen.
D-MoLE kombiniert die Konzepte von LoRa und Mixture of Experts (MoE) und führt einen Curriculum-Lernmechanismus ein. Es wählt und kombiniert dynamisch verschiedene LoRa-Module, um sich an neue Aufgaben anzupassen und gleichzeitig die Interferenz mit vorhandenem Wissen zu minimieren. Umfangreiche Experimente zeigen, dass D-MoLE modernste Basismodelle deutlich übertrifft und eine durchschnittliche Verbesserung von 15% gegenüber der besten Basislinie erreicht. Dies ist die erste Studie zum kontinuierlichen Lernen in MLLMs aus architektonischer Perspektive.