Back to Lobehub

在 LobeHub 中使用多模型服务商

docs/usage/providers.zh-CN.mdx

2.1.562.5 KB
Original Source

在 LobeHub 中使用多模型服务商

<Image alt={'多模型服务商支持'} borderless cover src={'/blog/assets17870709/1148639c-2687-4a9c-9950-8ca8672f34b6.webp'} />

在 LobeHub 的不断发展过程中,我们深刻理解到在提供 AI 会话服务时模型服务商的多样性对于满足社区需求的重要性。因此,我们不再局限于单一的模型服务商,而是拓展了对多种模型服务商的支持,以便为用户提供更为丰富和多样化的会话选择。

为什么支持多模型服务商?

LobeHub 的多提供商架构带来了以下核心优势:

  • 统一智能 — 通过单一界面访问任意模型和任意模态
  • 成本优化 — 在不同提供商之间切换,兼顾性能与预算
  • 供应商独立 — 避免厂商锁定,在某家提供商出现故障时保持服务连续性
  • 灵活性 — 为不同的 Agent 和使用场景混合搭配最合适的模型
  • 本地选项 — 使用 Ollama 或 LM Studio 实现完全数据隐私,无 API 费用

提供商分类

LobeHub 集成了 70+ AI 模型提供商:

  • 主流商业提供商 — OpenAI(GPT-4o、o1)、Anthropic(Claude)、Google(Gemini)、Microsoft Azure OpenAI、AWS Bedrock
  • 推理平台 — OpenRouter、Together AI、Groq、Fireworks AI、SambaNova
  • 国内提供商 — 智谱、Moonshot、DeepSeek、百川、通义千问(阿里)、文心一言(百度)、讯飞星火
  • 本地模型 — Ollama、LM Studio(无 API 费用,完全隐私,支持离线)
  • 图像生成 — DALL-E 3、fal.ai、BFL、ComfyUI

配置提供商

每个提供商在 设置 → 语言模型 中配置:

  1. 从列表中选择提供商
  2. 输入你的 API Key(从提供商的开发者控制台获取)
  3. 如需使用代理或自托管端点,可选填自定义 Base URL
  4. 保存后选择模型即可开始对话

自托管部署的环境变量配置,请参见模型提供商环境变量参考文档。

故障排查

连接错误 / API Key 无效 — 检查 API Key 是否包含多余的空格。确认你使用的 Key 类型与该提供商的要求匹配。

模型不可用 — 该模型可能不在你的账户套餐中,或已被弃用。请查看提供商的模型可用性说明页面。

速率限制错误 — 你已达到提供商的请求速率上限。考虑将请求分散到多个提供商,或升级账户套餐。

模型服务商使用教程

<ProviderCards locale={'zh'} />