Back to Chatgpt On Wechat

DeepSeek

docs/models/deepseek.mdx

2.0.81.9 KB
Original Source

方式一:官方接入(推荐):

json
{
  "model": "deepseek-v4-flash",
  "deepseek_api_key": "YOUR_API_KEY"
}
参数说明
model支持 deepseek-v4-flash(默认)、deepseek-v4-pro
deepseek_api_keyDeepSeek 平台 创建
deepseek_api_base可选,默认为 https://api.deepseek.com/v1,可修改为第三方代理地址

模型选择

模型适用场景
deepseek-v4-flash默认推荐,速度快、成本低
deepseek-v4-pro更智能、复杂任务效果更强

思考模式

V4 系列(deepseek-v4-flash / deepseek-v4-pro)支持显式的"思考模式":模型在输出最终回答前,先输出一段思维链(reasoning_content),从而提升答案质量。

开关

通过全局配置 enable_thinking 控制:

json
{
  "enable_thinking": true
}
  • true:所有渠道下模型都会先思考再作答。Web 控制台会展示思考过程,IM 渠道(微信 / 企微 / 钉钉 / 飞书)虽不展示但同样获得更好答案。
  • false:关闭思考,响应更快,首字延迟更低。

行为说明

  • 采样参数:思考模式下 temperaturetop_ppresence_penaltyfrequency_penalty 会被服务端忽略(不会报错),CowAgent 会自动跳过传入。
  • 多轮工具调用:当历史中包含工具调用时,DeepSeek 要求所有 assistant 消息必须回传 reasoning_content。CowAgent 会自动处理回传逻辑,跨轮次切换思考开关也不会出错。
<Tip> 默认使用 `deepseek-v4-flash`;复杂任务可使用 `deepseek-v4-pro`;需要深度思考可开启 `enable_thinking`。 </Tip>

方式二:OpenAI 兼容方式接入:

json
{
  "model": "deepseek-v4-flash",
  "bot_type": "openai",
  "open_ai_api_key": "YOUR_API_KEY",
  "open_ai_api_base": "https://api.deepseek.com/v1"
}