HyperAIHyperAI
il y a 11 jours

Seed Diffusion : un modèle linguistique de diffusion à grande échelle avec inférence à haute vitesse

\Yuxuan Song\, \ Zheng Zhang\, \ Cheng Luo\, \ Pengyang Gao\, \ Fan Xia\, \ Hao Luo\, \ Zheng Li\, \ Yuehang Yang\, \ Hongli Yu\, \ Xingwei Qu\, \ Yuwei Fu\, \ Jing Su\, \ Ge Zhang\, \ Wenhao Huang\, \ Mingxuan Wang\, \ Lin Yan\, \ Xiaoying Jia\, \ Jingjing Liu\, \ Wei-Ying Ma\, \ Ya-Qin Zhang\, \ Yonghui Wu\, \ Hao Zhou\
Seed Diffusion : un modèle linguistique de diffusion à grande échelle avec inférence à haute vitesse
Résumé

Nous présentons Seed Diffusion Preview, un modèle linguistique à grande échelle basé sur une diffusion à états discrets, offrant une vitesse d'inférence remarquablement élevée. Grâce à une génération parallèle non séquentielle, les modèles de diffusion discrets permettent une accélération notable, atténuant ainsi la latence inhérente au décodage token par token, comme le montrent récemment des travaux (par exemple, Mercury Coder, Gemini Diffusion). Seed Diffusion Preview atteint une vitesse d'inférence de 2 146 tokens par seconde sur des GPU H20, tout en maintenant des performances compétitives sur une large gamme de benchmarks standards d'évaluation du code, ce qui le rend significativement plus rapide que les modèles contemporains Mercury et Gemini Diffusion, établissant ainsi un nouveau record sur la frontière de Pareto vitesse-qualité pour les modèles de génération de code.