deplink.html
通过 Base64 编码的 JSON 配置文件导入完整配置,包含所有四种模型和端点信息。
必需 resource=provider, app=claude, name
可选 config (Base64 JSON), configFormat=json
📥 导入完整配置 📋 复制链接
// 解码后的配置内容:
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "sk-ant-test-key123",
"ANTHROPIC_BASE_URL": "https://api.anthropic.com/v1",
"ANTHROPIC_MODEL": "claude-sonnet-4.5",
"ANTHROPIC_DEFAULT_HAIKU_MODEL": "claude-haiku-4.1",
"ANTHROPIC_DEFAULT_SONNET_MODEL": "claude-sonnet-4.5",
"ANTHROPIC_DEFAULT_OPUS_MODEL": "claude-opus-4"
}
}
配置文件提供基础设置,URL 参数覆盖 API Key。URL 参数优先级最高。
必需 name, config
覆盖 apiKey (覆盖配置文件中的值)
📥 导入混合配置 📋 复制链接
// 解码后的配置内容:
{
"env": {
"ANTHROPIC_BASE_URL": "https://api.anthropic.com/v1",
"ANTHROPIC_MODEL": "claude-sonnet-4.5"
}
}
// URL 参数覆盖: apiKey=sk-ant-my-new-key
优先级规则: URL 参数 (apiKey) > 配置文件 (endpoint, model)
Codex 使用 TOML 格式的配置文件,包含 auth 和 config 两部分。
必需 name, config
可选 configFormat=json (Codex 配置为 JSON 包装的 TOML)
📥 导入 Codex 配置 📋 复制链接
// 解码后的配置内容:
{
"auth": {
"OPENAI_API_KEY": "sk-proj-test-key123"
},
"config": "[model_providers.openai]\nbase_url = "https://api.openai.com/v1\"\n\n[general]\nmodel = "gpt-5.1""
}
// config 字段解析 (TOML):
[model_providers.openai]
base_url = "https://api.openai.com/v1"
[general]
model = "gpt-5.1"
Gemini 使用扁平的环境变量格式,简洁明了。
必需 name, config
可选 configFormat=json
📥 导入 Gemini 配置 📋 复制链接
// 解码后的配置内容:
{
"GEMINI_API_KEY": "AIzaSyDtestkey123",
"GEMINI_BASE_URL": "https://generativelanguage.googleapis.com/v1beta",
"GEMINI_MODEL": "gemini-3-pro-preview"
}
一次性导入多个 MCP 服务器 (Context7 + Sequential-thinking)。
必需 resource=mcp, apps, config (Base64)
可选 enabled
📦 批量 MCP 配置 JSON:
{
"mcpServers": {
"context7": {
"command": "bunx",
"args": [
"-y",
"@upstash/context7-mcp",
"--api-key",
"ctx7sk-4ddd4f66-e752-4022-b1f6-c8cf6279b80d"
],
"env": {}
},
"sequential-thinking": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-sequential-thinking"
],
"env": {}
}
}
}
💡 批量导入说明 : 一次性导入 2 个 MCP 服务器
📦 服务器 1 : context7 - Upstash Context7 MCP 服务器
📦 服务器 2 : sequential-thinking - 结构化思维推理服务器
🎯 目标应用 : Claude 和 Codex
🔄 智能合并 : 如果服务器已存在,只更新应用启用状态,不覆盖配置
为 Claude 导入代码审查提示词。
📥 导入📋 复制
📝 Prompt 内容:
• 应用 : Claude
• 描述 : 专注代码质量
• 状态 : 导入后立即启用
从 GitHub 仓库导入 Claude Skills,支持指定分支和子目录路径。
必需 resource=skill, repo (owner/name)
可选 branch, skills_path, directory
📥 导入 Skill 仓库示例 📋 复制链接
🗂️ 将添加以下 Skill 仓库:
• GitHub 仓库 : example/claude-skills
• 分支 : main (默认分支)
• Skills 路径 : skills (仓库中技能文件所在的子目录)
• 本地目录 : my-skills (克隆到本地的目录名)
💡 说明 : 此操作会把仓库添加到 Skill 列表中。添加后,您可以在 Skills 管理界面选择安装具体的技能文件。
🔧 应用 : Claude (Skills 功能仅支持 Claude)
填写参数信息,自动生成深链接并导入到 CC Switch
目标应用 *多个应用用逗号分隔
MCP 配置 (JSON) *完整的 MCP 配置 JSON
是否启用是 (enabled=true)否 (enabled=false) 🎯 生成 MCP 深链接 生成的深链接:
📋 复制链接 📥 立即导入
目标应用 *ClaudeCodexGemini
提示词名称 *
提示词内容 *支持 Markdown 格式,自动 Base64 编码
描述
导入后是否启用是 (将禁用其他提示词)否 (保持禁用状态) 🎯 生成 Prompt 深链接 生成的深链接:
📋 复制链接 📥 立即导入
GitHub 仓库 *格式: 所有者/仓库名
分支
Skills 路径仓库中技能文件所在的子目录
本地目录名克隆到本地的目录名(可选) 🎯 生成 Skill 深链接 生成的深链接:
📋 复制链接 📥 立即导入
原始内容(UTF-8 文本) 🔒 编码为 Base64 ✅ 编码结果:
📋 复制结果 💡 可直接用于深链接的 config 或 content 参数
Base64 编码内容 🔓 解码为文本 ✅ 解码结果:
📋 复制结果 ✨ 格式化 JSON
粘贴深链接 URL,查看解析结果
深链接 URL 🔍 解析深链接
✅ 解析结果:
填写下方表单,生成您自己的深链接
导入模式URL 参数模式(传统)配置文件模式(v3.8+) URL 参数模式:直接在 URL 中传递参数 | 配置文件模式:使用 Base64 编码的 JSON/TOML
应用类型 *Claude CodeCodexGemini
供应商名称 * ⚠️ 唯一必填项
官网地址
API 端点 主 API 端点地址
备用 API 端点(可选,逗号分隔) 多个备用端点用逗号分隔,导入后自动添加为自定义端点
API Key
配置文件内容(JSON) 配置文件将自动进行 Base64 编码
Codex 认证信息 (JSON) 包含 API Key 的认证信息 JSON 对象
Codex 配置文件 (TOML) config.toml 的原始内容
URL 参数覆盖(可选)
💡 可以在下方填写 API Key、端点等参数来覆盖配置文件中的值。留空则完全使用配置文件。
默认模型(可选) 通用模型字段,适用于所有应用类型
可以根据需要设置特定的模型字段,这些字段仅在 Claude 应用中生效
Haiku 模型 对应环境变量:ANTHROPIC_DEFAULT_HAIKU_MODEL
Sonnet 模型 对应环境变量:ANTHROPIC_DEFAULT_SONNET_MODEL
Opus 模型 对应环境变量:ANTHROPIC_DEFAULT_OPUS_MODEL
图标(可选) 图标名称,用于在界面中显示
导入后是否设为当前供应商是 (立即切换到此供应商)否 (仅添加,不切换)
备注(可选)
配置用量查询脚本,可自动查询 API 余额
启用用量查询不配置启用禁用
用量查询 Base URL 用量查询接口的基础地址,必须与脚本中的请求 URL 同源
用量查询专用 API Key(可选)
用量查询脚本 支持模板变量:{{baseUrl}}、{{apiKey}}、{{accessToken}}、{{userId}}
自动查询间隔(分钟) 0 表示禁用自动查询
Access Token(可选)
User ID(可选)
🚀 生成深链接
✅ 生成的深链接:
📋 复制链接 🧪 测试链接