Déployer Llama3-8B-Instruct Avec Ollama Et Open WebUI
Introduction au tutoriel

Ce tutoriel est un package d'exécution en un clic d'Ollama + Open WebUI.Suivez simplement les étapes ci-dessous et entrez la commande pour exécuter le grand modèle Llama3 8B-Instruct en un clic.
Llama 3 8B-Instruct Le dernier né de la série Llama de modèles d'IA génératifs open source, Llama 3 est une amélioration significative par rapport à Llama 2 et à d'autres modèles disponibles publiquement :
- Formé sur un ensemble de données sept fois plus grand que Llama 2 ;
- Prise en charge de texte long de 8 K ;
- Avec un vocabulaire de 128 000 jetons, il peut encoder la langue plus efficacement.
Le modèle a été placé dans un espace public et n'occupe aucun espace de stockage personnel.
Après avoir démarré Ollama et Open WebUI respectivement selon le contenu suivant, vous pouvez l'utiliser en utilisant « l'adresse API » sur la droite.

Comment courir
Créez un nouveau terminal et démarrez Ollama
OLLAMA_MODELS=/openbayes/home/ollama-models ./ollama serve
Créez un nouveau terminal et démarrez Open Webui
bash /openbayes/input/input1/open-webui/backend/start.sh
Ouvrir la page
- Copiez l'adresse API à droite et collez-la dans votre navigateur pour ouvrir la page Open WebUI.

- Connectez-vous via admin@example.com / adminadmin
