Command Palette
Search for a command to run...
MultiPL-MoE-Architektur
MultiPL-MoE wurde im August 2025 vom China Mobile Research Institute vorgeschlagen, und die entsprechenden Forschungsergebnisse wurden in dem Artikel „MultiPL-MoE: Multiprogrammierungs- und sprachübergreifende Erweiterung großer Sprachmodelle durch hybride ExpertenmischungDie Studie wurde von EMNLP 2025 angenommen.
MultiPL-MoE ist eine Erweiterung von LLMs für mehrere Programmiersprachen (MultiPL), die mittels eines hybriden Expertenmodells (MoE) implementiert wird. Im Gegensatz zu bisherigen MoE-Methoden für Erweiterungen mehrerer natürlicher Sprachen, die sich auf die interne Sprachkonsistenz durch die Vorhersage nachfolgender Tags konzentrieren, die interne syntaktische Struktur von Programmiersprachen jedoch vernachlässigen, verwendet MultiPL-MoE eine neuartige hybride MoE-Architektur für das detaillierte Lernen semantischer Merkmale auf Tag-Ebene und syntaktischer Merkmale auf Fragment-Ebene. Dadurch kann das Modell die Codestruktur ableiten, indem es verschiedene syntaktische Elemente erkennt und klassifiziert.

Build AI with AI
From idea to launch — accelerate your AI development with free AI co-coding, out-of-the-box environment and best price of GPUs.