docs/usage/providers/ollama/gemma.zh-CN.mdx
<Image alt={'在 LobeHub 中使用 Gemma'} cover rounded src={'/blog/assets17870709/65d2dd2a-fdcf-4f3f-a6af-4ed5164a510d.webp'} />
Gemma 是 Google 开源的一款大语言模型(LLM),旨在提供一个更加通用、灵活的模型用于各种自然语言处理任务。现在,通过 LobeHub 与 Ollama 的集成,你可以轻松地在 LobeHub 中使用 Google Gemma。
本文档将指导你如何在 LobeHub 中使用 Google Gemma:
<Steps> ### 本地安装 Ollama首先,你需要安装 Ollama,安装过程请查阅 Ollama 使用文件。
在安装完成 Ollama 后,你可以通过以下命令安装 Google Gemma 模型,以 7b 模型为例:
ollama pull gemma
<Image alt={'使用 Ollama 拉取 Gemma 模型'} height={473} inStep src={'/blog/assets28616219/7049a811-a08b-45d3-8491-970f579c2ebd.webp'} width={791} />
在会话页面中,选择模型面板打开,然后选择 Gemma 模型。
<Image alt={'模型选择面板中选择 Gemma 模型'} height={629} inStep src={'/blog/assets28616219/69414c79-642e-4323-9641-bfa43a74fcc8.webp'} width={791} />
<Callout type={'info'}> 如果你没有在模型选择面板中看到 Ollama 服务商,请查阅 与 Ollama 集成 了解如何在 LobeHub 中开启 Ollama 服务商。 </Callout> </Steps>
接下来,你就可以使用 LobeHub 与本地 Gemma 模型对话了。