HyperAIHyperAI

Command Palette

Search for a command to run...

Déploiement vLLM+Open WebUI Phi-4-mini-flash-reasoning

1. Introduction au tutoriel

Étoiles GitHub

Phi-4-mini-flash-reasoning est un modèle open source léger publié par l'équipe Microsoft. Construit à partir de données synthétiques, il se concentre sur des données d'inférence denses et de haute qualité, et est optimisé pour offrir des capacités de raisonnement mathématique plus avancées. Ce modèle appartient à la famille Phi-4, prend en charge une longueur de contexte de 64 Ko, adopte une architecture décodeur-décodeur hybride, combine mécanisme d'attention et modèle d'espace d'état (SSM) et offre une excellente efficacité d'inférence. Articles connexes : « Architecture décodeur-décodeur hybride pour un raisonnement efficace avec une génération longue".

Ce tutoriel utilise une seule carte RTX 4090. Les invites du projet prennent en charge le chinois et l'anglais.

2. Exemples de projets

3. Étapes de l'opération

1. Après avoir démarré le conteneur, cliquez sur l'adresse API pour accéder à l'interface Web

2. Étapes d'utilisation

Si « Modèle » n'apparaît pas, cela signifie que le modèle est en cours d'initialisation. Le modèle étant volumineux, veuillez patienter 1 à 3 minutes avant d'actualiser la page.

4. Discussion

🖌️ Si vous voyez un projet de haute qualité, veuillez laisser un message en arrière-plan pour le recommander ! De plus, nous avons également créé un groupe d’échange de tutoriels. Bienvenue aux amis pour scanner le code QR et commenter [Tutoriel SD] pour rejoindre le groupe pour discuter de divers problèmes techniques et partager les résultats de l'application↓

Informations sur la citation

Les informations de citation pour ce projet sont les suivantes :


@software{archscale2025,
  title={ArchScale: Simple and Scalable Pretraining for Neural Architecture Research},
  author={Liliang Ren and Zichong Li and Yelong Shen},
  year={2025},
  url={https://github.com/microsoft/ArchScale}
}

@article{ren2025decoder,
title={Decoder-Hybrid-Decoder Architecture for Efficient Reasoning with Long Generation},
author={Liliang Ren and Congcong Chen and Haoran Xu and Young Jin Kim and Adam Atkinson and Zheng Zhan and Jiankai Sun and Baolin Peng and Liyuan Liu and Shuohang Wang and Hao Cheng and Jianfeng Gao and Weizhu Chen and Yelong Shen},
journal={arXiv preprint arXiv:2507.06607},
year={2025}
}

Construire l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec du co-codage IA gratuit, un environnement prêt à l'emploi et les meilleurs prix GPU.

Co-codage IA
GPU prêts à utiliser
Meilleurs prix
Commencer

Hyper Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Déploiement vLLM+Open WebUI Phi-4-mini-flash-reasoning | Tutoriels | HyperAI