docs/usage/providers/ollama.zh-CN.mdx
<Image alt={'在 LobeHub 中使用 Ollama'} borderless cover src={'/blog/assets17870709/f579b39b-e771-402c-a1d1-620e57a10c75.webp'} />
Ollama 是一款强大的本地运行大型语言模型(LLM)的框架,支持多种语言模型,包括 Llama 2, Mistral 等。现在,LobeHub 已经支持与 Ollama 的集成,这意味着你可以在 LobeHub 中轻松使用 Ollama 提供的语言模型来增强你的应用。
本文档将指导你如何在 LobeHub 中使用 Ollama:
<Video alt={'在 LobeHub 中使用 Ollama的完整演示'} height={580} src="/blog/assets28616219/c32b56db-c6a1-4876-9bc3-acbd37ec0c0c.mp4" />
下载 Ollama for macOS 并解压、安装。
由于 Ollama 的默认参数配置,启动时设置了仅本地访问,所以跨域访问以及端口监听需要进行额外的环境变量设置 OLLAMA_ORIGINS。使用 launchctl 设置环境变量:
launchctl setenv OLLAMA_ORIGINS "*"
完成设置后,需要重启 Ollama 应用程序。
接下来,你就可以使用 LobeHub 与本地 LLM 对话了。
<Image alt="在 LobeHub 中与 llama3 对话" height="573" src="/blog/assets28616219/7f9a9a9f-fd91-4f59-aac9-3f26c6d49a1e.webp" /> </Steps>由于 Ollama 的默认参数配置,启动时设置了仅本地访问,所以跨域访问以及端口监听需要进行额外的环境变量设置 OLLAMA_ORIGINS。
在 Windows 上,Ollama 继承了您的用户和系统环境变量。
OLLAMA_ORIGINS,值设为 * 。OK/应用保存后重启系统。Ollama。接下来,你就可以使用 LobeHub 与本地 LLM 对话了。 </Steps>
通过以下命令安装:
curl -fsSL https://ollama.com/install.sh | sh
或者,你也可以参考 Linux 手动安装指南。
由于 Ollama 的默认参数配置,启动时设置了仅本地访问,所以跨域访问以及端口监听需要进行额外的环境变量设置 OLLAMA_ORIGINS。如果 Ollama 作为 systemd 服务运行,应该使用systemctl设置环境变量:
sudo systemctl edit ollama.service编辑 systemd 服务。sudo systemctl edit ollama.service
[Service]部分下添加Environment:[Service]
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
systemd 并重启 Ollama:sudo systemctl daemon-reload
sudo systemctl restart ollama
接下来,你就可以使用 LobeHub 与本地 LLM 对话了。 </Steps>
如果你更倾向于使用 Docker,Ollama 也提供了官方 Docker 镜像,你可以通过以下命令拉取:
docker pull ollama/ollama
由于 Ollama 的默认参数配置,启动时设置了仅本地访问,所以跨域访问以及端口监听需要进行额外的环境变量设置 OLLAMA_ORIGINS。
如果 Ollama 作为 Docker 容器运行,你可以将环境变量添加到 docker run 命令中。
docker run -d --gpus=all -v ollama:/root/.ollama -e OLLAMA_ORIGINS="*" -p 11434:11434 --name ollama ollama/ollama
接下来,你就可以使用 LobeHub 与本地 LLM 对话了。 </Steps>
Ollama 支持多种模型,你可以在 Ollama Library 中查看可用的模型列表,并根据需求选择合适的模型。
在 LobeHub 中,我们默认开启了一些常用的大语言模型,例如 llama3、 Gemma 、 Mistral 等。当你选中模型进行对话时,我们会提示你需要下载该模型。
<Image alt="LobeHub 提示安装 Ollama 模型" height="460" src="/blog/assets28616219/4e81decc-776c-43b8-9a54-dfb43e9f601a.webp" />下载完成后即可开始对话。
当然,你也可以通过在终端执行以下命令安装模型,以 llama3 为例:
ollama pull llama3
你可以在 设置 -> AI 服务商 中找到 Ollama 的配置选项,你可以在这里配置 Ollama 的代理、模型名称等。
<Image alt={'Ollama 服务商设置'} height={274} src={'/blog/assets28616219/54b3696b-5b13-4761-8c1b-1e664867b2dd.webp'} />
<Callout type={'info'}> 你可以前往 与 Ollama 集成 了解如何部署 LobeHub ,以满足与 Ollama 的集成需求。 </Callout>