docs/models/deepseek.mdx
方式一:官方接入(推荐):
{
"model": "deepseek-v4-flash",
"deepseek_api_key": "YOUR_API_KEY"
}
| 参数 | 说明 |
|---|---|
model | 支持 deepseek-v4-flash(默认)、deepseek-v4-pro |
deepseek_api_key | 在 DeepSeek 平台 创建 |
deepseek_api_base | 可选,默认为 https://api.deepseek.com/v1,可修改为第三方代理地址 |
| 模型 | 适用场景 |
|---|---|
deepseek-v4-flash | 默认推荐,速度快、成本低 |
deepseek-v4-pro | 更智能、复杂任务效果更强 |
V4 系列(deepseek-v4-flash / deepseek-v4-pro)支持显式的"思考模式":模型在输出最终回答前,先输出一段思维链(reasoning_content),从而提升答案质量。
通过全局配置 enable_thinking 控制:
{
"enable_thinking": true
}
true:所有渠道下模型都会先思考再作答。Web 控制台会展示思考过程,IM 渠道(微信 / 企微 / 钉钉 / 飞书)虽不展示但同样获得更好答案。false:关闭思考,响应更快,首字延迟更低。temperature、top_p、presence_penalty、frequency_penalty 会被服务端忽略(不会报错),CowAgent 会自动跳过传入。reasoning_content。CowAgent 会自动处理回传逻辑,跨轮次切换思考开关也不会出错。方式二:OpenAI 兼容方式接入:
{
"model": "deepseek-v4-flash",
"bot_type": "openai",
"open_ai_api_key": "YOUR_API_KEY",
"open_ai_api_base": "https://api.deepseek.com/v1"
}