HyperAIHyperAI

Command Palette

Search for a command to run...

MultiPL-MoE-Architektur

Datum

vor 2 Monaten

Paper-URL

2508.19268

MultiPL-MoE wurde im August 2025 vom China Mobile Research Institute vorgeschlagen, und die entsprechenden Forschungsergebnisse wurden in dem Artikel „MultiPL-MoE: Multiprogrammierungs- und sprachübergreifende Erweiterung großer Sprachmodelle durch hybride ExpertenmischungDie Studie wurde von EMNLP 2025 angenommen.

MultiPL-MoE ist eine Erweiterung von LLMs für mehrere Programmiersprachen (MultiPL), die mittels eines hybriden Expertenmodells (MoE) implementiert wird. Im Gegensatz zu bisherigen MoE-Methoden für Erweiterungen mehrerer natürlicher Sprachen, die sich auf die interne Sprachkonsistenz durch die Vorhersage nachfolgender Tags konzentrieren, die interne syntaktische Struktur von Programmiersprachen jedoch vernachlässigen, verwendet MultiPL-MoE eine neuartige hybride MoE-Architektur für das detaillierte Lernen semantischer Merkmale auf Tag-Ebene und syntaktischer Merkmale auf Fragment-Ebene. Dadurch kann das Modell die Codestruktur ableiten, indem es verschiedene syntaktische Elemente erkennt und klassifiziert.

Gesamtrahmen des MultiPL-MoE

KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
MultiPL-MoE-Architektur | Wiki | HyperAI