使用 Ollama 和 Open WebUI 部署 Llama3-70B

教程简介

1

该教程为 Ollama + Open WebUI 一键运行包,只需按照下文步骤输入命令即可一键运行大模型 Llama3 70B 。

按照下文的「运行方法」分别启动 Ollama 和 0pen Webui 后,在右侧使用「API 地址」就可以使用了。由于该模型规模较大,Ollama 加载模型的过程会较为缓慢,请保持耐心静候。  在首次使用时,也就是首次向大模型输入提示词(prompt)时,Ollama 才会正式开始加载模型,因此第一个问题大概需要等待 3 分钟左右的时间,之后模型的回应则会越来越快。

Ollama 和 Open WebUI 简介

随着模型规模的不断增大,如何有效地部署这些大型模型已经成为一项挑战。 Ollama 和 Open WebUI 是两个非常实用的工具,它们分别提供了强大的后端模型管理和前端界面交互功能。通过结合使用这两个工具,能够更轻松地完成大型模型的部署和管理任务。

模型简介

模型对话示例如下

1

该模型有两种大小的型号:8B 和 70B 。 8B 用于在消费级 GPU 上高效部署和开发,70B 用于大规模 AI 原生应用程序。

Llama3 为 Llama 系列开放式生成 AI 模型的最新产品,该模型比 Llama 2 和其他公开可用的模型有了很大的改进:

  • 在比 Llama 2 大七倍的数据集上进行训练;
  • 支持 8K 长文本;
  • 具有 128K token 的词汇量,可以更有效地编码语言。

该模型已放在公共空间里,不占用个人的存储空间。

运行方法

新建一个终端启动 Ollama

OLLAMA_MODELS=/openbayes/home/ollama-models ./ollama serve

再新建一个终端启动 Open Webui

bash /openbayes/input/input1/open-webui/backend/start.sh

打开页面

  1. 在右侧复制 API 地址,粘贴到浏览器打开 Open Webui 页面
  1. 通过 admin@example.com / adminadmin 登录