docs/user/mcp-server.md
Prompt Optimizer 支持 Model Context Protocol (MCP) 协议,可以与 Claude Desktop 等支持 MCP 的 AI 应用集成。
Docker 是最简单的部署方式,Web 界面和 MCP 服务器会同时启动:
# 基本部署
docker run -d -p 8081:80 \
-e VITE_OPENAI_API_KEY=your-openai-key \
-e MCP_DEFAULT_MODEL_PROVIDER=openai \
--name prompt-optimizer \
linshen/prompt-optimizer
# 访问地址
# Web 界面:http://localhost:8081
# MCP 服务器:http://localhost:8081/mcp
注意:此方式仅适用于开发者进行开发和调试,普通用户建议使用 Docker 部署。
# 1. 克隆项目
git clone https://github.com/your-repo/prompt-optimizer.git
cd prompt-optimizer
# 2. 安装依赖
pnpm install
# 3. 配置环境变量(复制并编辑 .env.local)
cp env.local.example .env.local
# 4. 启动 MCP 服务器
pnpm mcp:dev
服务器将在 http://localhost:3000/mcp 启动。开发者可以查看 开发者文档 获取更多开发相关信息。
至少需要配置一个 API 密钥:
# 选择一个或多个 API 密钥
VITE_OPENAI_API_KEY=your-openai-key
VITE_GEMINI_API_KEY=your-gemini-key
VITE_DEEPSEEK_API_KEY=your-deepseek-key
VITE_SILICONFLOW_API_KEY=your-siliconflow-key
VITE_ZHIPU_API_KEY=your-zhipu-key
# 自定义 API(如 Ollama)
VITE_CUSTOM_API_KEY=your-custom-key
VITE_CUSTOM_API_BASE_URL=http://localhost:11434/v1
VITE_CUSTOM_API_MODEL=qwen2.5:0.5b
# 首选模型提供商(当配置了多个 API 密钥时)
# 可选值:openai, gemini, anthropic, deepseek, siliconflow, zhipu, dashscope, openrouter, modelscope, custom
MCP_DEFAULT_MODEL_PROVIDER=openai
# 日志级别(可选,默认 debug)
# 可选值:debug, info, warn, error
MCP_LOG_LEVEL=info
# HTTP 端口(可选,默认 3000,Docker 部署时无需设置)
MCP_HTTP_PORT=3000
# 默认语言(可选,默认 zh)
# 可选值:zh, en
MCP_DEFAULT_LANGUAGE=zh
%APPDATA%\Claude\services~/Library/Application Support/Claude/services~/.config/Claude/services创建或编辑 services.json 文件:
{
"services": [
{
"name": "Prompt Optimizer",
"url": "http://localhost:8081/mcp"
}
]
}
注意:如果你使用的是开发者本地部署(端口 3000),请将 URL 改为
http://localhost:3000/mcp。
MCP 服务器支持标准的 MCP 协议,可以被任何兼容的客户端使用:
http://localhost:8081/mcphttp://localhost:3000/mcpMCP Inspector 是官方提供的测试工具:
# 1. 启动 MCP 服务器
pnpm mcp:dev
# 2. 在另一个终端启动 Inspector
npx @modelcontextprotocol/inspector
在 Inspector Web UI 中:
Streamable HTTPhttp://localhost:3000/mcp错误: Error: listen EADDRINUSE: address already in use
解决: 端口被占用,更改端口或停止占用进程
# 查看端口占用
netstat -ano | findstr :3000
# 更改端口
MCP_HTTP_PORT=3001 pnpm mcp:dev
错误: No enabled models found
解决: 检查 API 密钥配置
# 确保至少配置一个有效的 API 密钥
echo $VITE_OPENAI_API_KEY
错误: 使用了错误的模型
解决: 检查 MCP_DEFAULT_MODEL_PROVIDER 配置
# 确保提供商名称正确
MCP_DEFAULT_MODEL_PROVIDER=openai # 不是 OpenAI
问题: 使用 Docker 部署并启用了 ACCESS_PASSWORD 后,MCP Inspector 连接失败,返回 401 错误
原因: Docker 部署启用密码保护后,Nginx 会对所有路由启用 Basic 认证,包括 /mcp 路由
解决方案:
/mcp 路由已配置为绕过 Basic 认证ACCESS_PASSWORD 环境变量docker run -p 3000:3000 ...技术说明:
docker/nginx.conf 中为 /mcp 路由添加了 auth_basic off;解决步骤:
启用详细日志:
# 开发环境
MCP_LOG_LEVEL=debug pnpm mcp:dev
# Docker 环境
docker run -e MCP_LOG_LEVEL=debug ...
如果遇到问题: