HyperAIHyperAI

Command Palette

Search for a command to run...

Déploiement De Grands Modèles Avec Ollama Et Open WebUI

Date

il y a 2 ans

Taille

896.14 MB

Introduction au tutoriel

Ce tutoriel est un package d'exécution en un clic d'Ollama + Open WebUI. Il vous suffit de suivre les étapes ci-dessous pour entrer la commande permettant d'exécuter le grand modèle en un clic.

Les modèles actuellement inclus sont :

  1. qwen 1.5 14b
  2. qwen 1.5 32b
  3. llava 1.6 34b Ce modèle est un modèle multimodal

Les trois modèles ci-dessus sont placés dans un espace public et n'occupent pas d'espace de stockage personnel.

Après avoir démarré ollama et ouvert l'interface Web respectivement selon le contenu suivant, vous pouvez l'utiliser en utilisant « l'adresse API » sur la droite.

Référence du didacticiel vidéo :Pas besoin d'installer, il suffit de cloner et d'exécuter de grands modèles en un seul clic – Exécutez Ollama et ouvrez WebUI sur Cloud GPU

Démarrer Ollama

OLLAMA_MODELS=/openbayes/home/ollama-models ./ollama serve

Démarrer l'interface Web ouverte

bash /openbayes/input/input1/open-webui/backend/start.sh

Ouvrir la page

  1. Copiez l'adresse API à droite et collez-la dans votre navigateur pour ouvrir la page d'interface Web ouverte.
  1. Connectez-vous via admin@example / adminadmin

Ajout de nouveaux modèles

Dans la ligne de commande, passez la commande ./ollama pull  De nouveaux modèles peuvent être téléchargés. Le nouveau modèle occupera son propre espace.

Aperçu du notebook

Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp