docs/usage/providers/lmstudio.zh-CN.mdx
<Image alt={'在 LobeHub 中使用 LM Studio'} cover src={'/blog/assets28749075f0c4d62c1642694a4ed9ec08.webp'} />
LM Studio 是一个用于测试和运行大型语言模型(LLM)的平台,提供了直观易用的界面,适合开发人员和 AI 爱好者使用。它支持在本地电脑上部署和运行各种开源 LLM 模型,例如 Deepseek 或 Qwen,实现离线 AI 聊天机器人的功能,从而保护用户隐私并提供更大的灵活性。
本文档将指导你如何在 LobeHub 中使用 LM Studio:
<Steps> ### 步骤一:获取并安装 LM Studio<Image alt={'安装并运行 LM Studio'} inStep src={'/blog/assets73ba166f1e6d54e8c860b91f61c23355.webp'} />
Discover 菜单,搜索并下载你想要使用的模型<Image alt={'搜索并下载模型'} inStep src={'/blog/assets3e2af0090f02059c687b6add6b73a90b.webp'} />
<Image alt={'配置模型运行参数'} inStep src={'/blog/assetsbbe90aa719d182d3d2f327e4182732c5.webp'} />
加载模型 按钮,等待模型完成加载并运行Developer 面板或软件菜单启动服务,LM Studio 服务默认启动在本机的 1234 端口<Image alt={'启动本地服务'} inStep src={'/blog/assets5fd5fb937b9b05d50ce8659cea3210a4.webp'} />
CORS(跨域资源共享)选项,这样才能在其它程序中使用该模型<Image alt={'开启 CORS'} inStep src={'/blog/assets5f8cc99da9c3c1eaca284411833c99e3.webp'} />
应用设置 的 AI 服务供应商 界面LM Studio 的设置项<Image alt={'填写 LM Studio 的地址'} inStep src={'/blog/assetsc52da5833158f3b3143e40bf2a534ac7.webp'} />
<Callout type={'warning'}>如果你的 LM Studio 运行在本地,请确保打开客户端请求模式</Callout>
在下方的模型列表中添加你运行的模型
为你的助手选择一个火山引擎模型即可开始对话
<Image alt={'选择 LM Studio 模型'} inStep src={'/blog/assets4224bf4978bea84e82b3b3aec77656f0.webp'} />
</Steps>至此你已经可以在 LobeHub 中使用 LM Studio 运行的模型进行对话了。