docs/cn/ai-providers.md
本指南介绍如何为 next-ai-draw-io 配置不同的 AI 模型提供商。
.env.example 复制为 .env.localAI_MODEL 设置为所需的模型npm run dev免费 Token:在 火山引擎 ARK 平台 注册,即可获得所有模型 50 万免费 Token!
DOUBAO_API_KEY=your_api_key
AI_MODEL=doubao-seed-1-8-251215 # 或其他豆包模型
GOOGLE_GENERATIVE_AI_API_KEY=your_api_key
AI_MODEL=gemini-2.0-flash
可选的自定义端点:
GOOGLE_BASE_URL=https://your-custom-endpoint
OPENAI_API_KEY=your_api_key
AI_MODEL=gpt-4o
可选的自定义端点(用于 OpenAI 兼容服务):
OPENAI_BASE_URL=https://your-custom-endpoint/v1
ANTHROPIC_API_KEY=your_api_key
AI_MODEL=claude-sonnet-4-5-20250514
可选的自定义端点:
ANTHROPIC_BASE_URL=https://your-custom-endpoint
DEEPSEEK_API_KEY=your_api_key
AI_MODEL=deepseek-chat
可选的自定义端点:
DEEPSEEK_BASE_URL=https://your-custom-endpoint
SILICONFLOW_API_KEY=your_api_key
AI_MODEL=deepseek-ai/DeepSeek-V3 # 示例;使用任何 SiliconFlow 模型 ID
可选的自定义端点(默认为推荐域名):
SILICONFLOW_BASE_URL=https://api.siliconflow.com/v1 # 或 https://api.siliconflow.cn/v1
SGLANG_API_KEY=your_api_key
AI_MODEL=your_model_id
可选的自定义端点:
SGLANG_BASE_URL=https://your-custom-endpoint/v1
AZURE_API_KEY=your_api_key
AZURE_RESOURCE_NAME=your-resource-name # 必填:您的 Azure 资源名称
AI_MODEL=your-deployment-name
或者使用自定义端点代替资源名称:
AZURE_API_KEY=your_api_key
AZURE_BASE_URL=https://your-resource.openai.azure.com # AZURE_RESOURCE_NAME 的替代方案
AI_MODEL=your-deployment-name
可选的推理配置:
AZURE_REASONING_EFFORT=low # 可选:low, medium, high
AZURE_REASONING_SUMMARY=detailed # 可选:none, brief, detailed
AWS_REGION=us-west-2
AWS_ACCESS_KEY_ID=your_access_key_id
AWS_SECRET_ACCESS_KEY=your_secret_access_key
AI_MODEL=anthropic.claude-sonnet-4-5-20250514-v1:0
注意:在 AWS 环境(Lambda、带有 IAM 角色的 EC2)中,凭证会自动从 IAM 角色获取。
OPENROUTER_API_KEY=your_api_key
AI_MODEL=anthropic/claude-sonnet-4
可选的自定义端点:
OPENROUTER_BASE_URL=https://your-custom-endpoint
AI_PROVIDER=ollama
AI_MODEL=llama3.2
MODELSCOPE_API_KEY=your_api_key
AI_MODEL=Qwen/Qwen3-235B-A22B-Instruct-2507
可选的自定义端点:
MODELSCOPE_BASE_URL=https://your-custom-endpoint
可选的自定义 URL:
OLLAMA_BASE_URL=http://localhost:11434
Vercel AI Gateway 通过单个 API 密钥提供对多个 AI 提供商的统一访问。这简化了身份验证,让您无需管理多个 API 密钥即可在不同提供商之间切换。
基本用法(Vercel 托管网关):
AI_GATEWAY_API_KEY=your_gateway_api_key
AI_MODEL=openai/gpt-4o
自定义网关 URL(用于本地开发或自托管网关):
AI_GATEWAY_API_KEY=your_custom_api_key
AI_GATEWAY_BASE_URL=https://your-custom-gateway.com/v1/ai
AI_MODEL=openai/gpt-4o
模型格式使用 provider/model 语法:
openai/gpt-4o - OpenAI GPT-4oanthropic/claude-sonnet-4-5 - Anthropic Claude Sonnet 4.5google/gemini-2.0-flash - Google Gemini 2.0 Flash配置说明:
AI_GATEWAY_BASE_URL,则使用默认的 Vercel Gateway URL (https://ai-gateway.vercel.sh/v1/ai)AI_GATEWAY_API_KEY从 Vercel AI Gateway 仪表板 获取您的 API 密钥。
MiniMax 支持两种 API 格式:
/anthropic 端点)— 推荐,支持 interleaved thinking/v1 端点)— 标准 OpenAI 聊天补全格式MINIMAX_API_KEY=your_api_key
AI_MODEL=MiniMax-M2.7
可选配置:
# 中国大陆版,Anthropic 兼容(默认)
MINIMAX_BASE_URL=https://api.minimaxi.com/anthropic
# 中国大陆版,OpenAI 兼容
MINIMAX_BASE_URL=https://api.minimaxi.com/v1
# 国际版,Anthropic 兼容
MINIMAX_BASE_URL=https://api.minimax.io/anthropic
# 国际版,OpenAI 兼容
MINIMAX_BASE_URL=https://api.minimax.io/v1
GLM_API_KEY=your_api_key
AI_MODEL=glm-4
可选的自定义端点:
GLM_BASE_URL=https://your-custom-endpoint
QWEN_API_KEY=your_api_key
AI_MODEL=qwen-turbo
可选的自定义端点:
QWEN_BASE_URL=https://your-custom-endpoint
KIMI_API_KEY=your_api_key
AI_MODEL=kimi-latest
可选的自定义端点:
KIMI_BASE_URL=https://your-custom-endpoint
QINIU_API_KEY=your_api_key
AI_MODEL=your_model_id
可选的自定义端点:
QINIU_BASE_URL=https://your-custom-endpoint
如果您只配置了一个提供商的 API 密钥,系统将自动检测并使用该提供商。无需设置 AI_PROVIDER。
如果您配置了多个 API 密钥,则必须显式设置 AI_PROVIDER:
AI_PROVIDER=google # 或:openai, anthropic, deepseek, siliconflow, doubao, azure, bedrock, openrouter, ollama, gateway, sglang, modelscope, minimax, glm, qwen, kimi, qiniu
管理员可以配置多个服务端模型,让所有用户无需提供个人 API Key 即可使用。
方式一:环境变量(推荐用于云部署)
设置 AI_MODELS_CONFIG 为 JSON 字符串:
AI_MODELS_CONFIG='{"providers":[{"name":"OpenAI","provider":"openai","models":["gpt-4o"],"default":true}]}'
方式二:配置文件
在项目根目录创建 ai-models.json 文件(或通过 AI_MODELS_CONFIG_PATH 指定路径)。
{
"providers": [
{
"name": "OpenAI Production",
"provider": "openai",
"models": ["gpt-4o", "gpt-4o-mini"],
"default": true
},
{
"name": "Custom DeepSeek",
"provider": "deepseek",
"models": ["deepseek-chat"],
"apiKeyEnv": "MY_DEEPSEEK_KEY",
"baseUrlEnv": "MY_DEEPSEEK_URL"
}
]
}
| 字段 | 必填 | 说明 |
|---|---|---|
name | 是 | 显示名称(支持同一提供商多个配置) |
provider | 是 | 提供商类型(openai, anthropic, google, bedrock 等) |
models | 是 | 模型 ID 列表 |
default | 否 | 设为 true 表示默认选中该提供商的第一个模型 |
apiKeyEnv | 否 | 自定义 API Key 环境变量名(默认使用提供商标准变量如 OPENAI_API_KEY) |
baseUrlEnv | 否 | 自定义 Base URL 环境变量名 |
OPENAI_API_KEY),也可通过 apiKeyEnv 指定自定义变量名。name 字段允许同一提供商多个配置(例如 "OpenAI Production" 和 "OpenAI Staging" 都使用 provider: "openai" 但 apiKeyEnv 不同)。AI_PROVIDER/AI_MODEL 环境变量配置。此任务对模型能力要求极高,因为它涉及生成具有严格格式约束(draw.io XML)的长文本。
推荐模型:
关于 Ollama 的说明:虽然支持将 Ollama 作为提供商,但除非您在本地运行像 DeepSeek R1 或 Qwen3-235B 这样的高性能模型,否则对于此用例通常不太实用。
您可以通过环境变量选择性地配置温度:
TEMPERATURE=0 # 输出更具确定性(推荐用于图表)
重要提示:对于不支持温度设置的模型(例如以下模型),请勿设置 TEMPERATURE:
未设置时,模型将使用其默认行为。