HyperAIHyperAI

Command Palette

Search for a command to run...

Architecture MultiPL-MoE

Date

il y a 2 mois

Paper URL

2508.19268

MultiPL-MoE a été proposé par l'Institut de recherche China Mobile en août 2025, et les résultats de recherche correspondants ont été publiés dans l'article «MultiPL-MoE : Extension multilingue et multiprogrammation de grands modèles de langage par un mélange hybride d’expertsL'étude a été acceptée par EMNLP 2025.

MultiPL-MoE est une extension multilangage de programmation (MultiPL) des modèles de langages naturels (LLM) implémentée via une approche hybride expert-hybride (MoE). Contrairement aux méthodes MoE précédentes pour les extensions multilangages naturels, qui privilégient la cohérence interne du langage en prédisant les balises suivantes mais négligent la structure syntaxique interne des langages de programmation, MultiPL-MoE emploie une architecture MoE hybride novatrice pour un apprentissage fin des caractéristiques sémantiques au niveau des balises et des caractéristiques syntaxiques au niveau des fragments. Ceci permet au modèle d'inférer la structure du code en reconnaissant et en classant différents éléments syntaxiques.

Cadre général MultiPL-MoE

Build AI with AI

From idea to launch — accelerate your AI development with free AI co-coding, out-of-the-box environment and best price of GPUs.

AI Co-coding
Ready-to-use GPUs
Best Pricing

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp