Stellen Sie Llama3-8B-Instruct Mit Ollama Und Open WebUI Bereit
Einführung in das Tutorial

Dieses Tutorial ist ein One-Click-Ausführungspaket von Ollama + Open WebUI.Befolgen Sie einfach die folgenden Schritte und geben Sie den Befehl ein, um das große Modell Llama3 8B-Instruct mit einem Klick auszuführen.
Llama 3 8B-Instruct Llama 3, das neueste Open-Source-Modell für generative KI in der Llama-Reihe, stellt eine deutliche Verbesserung gegenüber Llama 2 und anderen öffentlich verfügbaren Modellen dar:
- Trainiert auf einem siebenmal größeren Datensatz als Llama 2;
- Unterstützt 8K Langtext;
- Mit einem Vokabular von 128.000 Token kann es die Sprache effizienter kodieren.
Das Modell wurde im öffentlichen Raum aufgestellt und nimmt keinen persönlichen Lagerraum in Anspruch.
Nachdem Sie Ollama bzw. Open WebUI gemäß den folgenden Inhalten gestartet haben, können Sie es mithilfe der „API-Adresse“ auf der rechten Seite verwenden.

Wie man läuft
Erstellen Sie ein neues Terminal und starten Sie Ollama
OLLAMA_MODELS=/openbayes/home/ollama-models ./ollama serve
Erstellen Sie ein neues Terminal und starten Sie Open Webui
bash /openbayes/input/input1/open-webui/backend/start.sh
Seite öffnen
- Kopieren Sie die API-Adresse rechts und fügen Sie sie in Ihren Browser ein, um die Seite „WebUI öffnen“ zu öffnen.

- Melden Sie sich über admin@example.com / adminadmin an
