Back to Lobehub

LobeHub v1.6:GPT-4o mini 成为默认模型选项

docs/changelog/2024-07-19-gpt-4o-mini.zh-CN.mdx

2.1.561.5 KB
Original Source

LobeHub v1.6:GPT-4o mini 成为默认模型选项

OpenAI 全系列模型已升级至 GPT-4 架构。LobeHub v1.6 跟进这一变化,正式支持 GPT-4o mini。对于 LobeHub Cloud 用户,这次升级更进一步:GPT-4o mini 现已成为默认模型,替代 GPT-3.5-turbo。

这意味着从第一条消息开始,你就能获得更强的对话能力,无需任何配置调整。

GPT-4o mini:能力与成本的平衡之选

GPT-4o mini 以更小的规模提供 GPT-4 级别的智能。响应速度足以支撑实时交互,能力覆盖大多数日常任务 —— 起草文案、分析数据、编程辅助和创意工作。

GPT-4o mini 的适用场景:

  • 比 GPT-3.5 更强的推理能力,同时避免完整 GPT-4o 的延迟
  • 高频对话的成本优化默认选项
  • 指令遵循和工具调用方面的稳定表现

面对复杂推理任务时,可切换至完整 GPT-4o 或其他提供商(Claude 3.5 Sonnet、Gemini 1.5 Pro)获取最强能力。

Cloud 服务:默认模型自动升级

LobeHub Cloud 用户将自动获得此次服务升级。新对话默认以 GPT-4o mini 启动。现有用户无需更改任何设置 —— 模型切换器会自动将新默认选项置顶显示。

Cloud 现已支持:

  • GPT-4o mini(默认)
  • GPT-4o
  • Claude 3.5 Sonnet
  • Gemini 1.5 Pro

体验优化与修复

  • 新增 GPT-4o mini 模型配置和参数默认值
  • 更新 LobeHub Cloud 默认模型选择逻辑
  • 优化模型切换器 UI,突出推荐选项
  • 修复新版 OpenAI 模型流式响应的边界情况