7.1  什么是 Coding Plan

2 min
一句话定义:Coding Plan = 国内厂商的 AI 模型月度订阅,兼容 OpenAI API 格式。
便宜
最低 29 元/月起,对比海外 $20-200/月
直连
国内网络直连,无需 VPN,低延迟
模型多
一个订阅包含多款模型(Qwen、GLM、DeepSeek、Kimi 等)
通用 3 步配置流程
  • 买套餐:购买 Coding Plan,获取 API Key 和 Base URL
    Key 前缀因平台而异:百炼/腾讯 = sk-sp-,无问芯穹 = sk-cp-,MiniMax = MINIMAX-
  • 写 env:配置环境变量文件
    # ~/.openclaw/env export OPENAI_API_KEY=你的_CodingPlan_Key export OPENAI_BASE_URL=平台的_BaseURL
    chmod 600 ~/.openclaw/env
  • 改 json:指定模型名称
    // ~/.openclaw/openclaw.json { “agent”: { “model”: “平台模型名” } }
注意

JSON 不支持注释,复制时请删除 // 注释行。大多数平台的 Coding Plan Base URL 包含 /coding/ 路径,与通用 API 地址不同,不可混用。

7.2  阿里云百炼

2 min
 8 款模型 · 文档完善
8 款模型可选,首月 7.9 元。Lite 40 元/月(18,000 次),Pro 200 元/月(90,000 次)。
Coding Plan 购买链接 →
env 配置
# ~/.openclaw/env export OPENAI_API_KEY=sk-sp-你的百炼_CodingPlan_Key export OPENAI_BASE_URL=https://coding.dashscope.aliyuncs.com/v1
json 配置
{ “agent”: { “model”: “qwen3-coder-plus” } }
推荐模型
模型 适用场景 备注
qwen3-coder-plus 日常编码 代码专用
qwen3.5-plus 复杂推理 最新旗舰通用模型
qwen3-coder-next 高难度编码 代码增强版
kimi-k2.5 长上下文 256K 上下文
glm-5 中文理解 智谱最新旗舰
注意

Coding Plan 的 API Key 和 Base URL 是专用的,与百炼通用 API 不同,不可混用。

7.3  火山引擎方舟

2 min
 Auto 智能调度
Auto 模式自动匹配模型。Lite 40 元/月(首月 8.9-9.9),Pro 200 元/月(首月 49.9)。
Coding Plan 购买链接 →
env 配置
# ~/.openclaw/env # 注意:Coding Plan 专用地址含 /coding/,与通用 API 不同 export OPENAI_API_KEY=你的火山引擎_Key export OPENAI_BASE_URL=https://ark.cn-beijing.volces.com/api/coding/v3
json 配置(Auto 模式,推荐)
{ “agent”: { “model”: “ark-code-latest” } }
json 配置(指定模型)
{ “agent”: { “model”: “doubao-seed-2.0-code” } }
推荐模型
模型 适用场景 备注
ark-code-latest 通用 Auto 调度入口,开启后自动匹配模型
doubao-seed-2.0-code 编码 豆包代码模型
doubao-seed-2.0-pro 通用 豆包通用模型
doubao-seed-2.0-lite 简单任务 轻量版,省额度
deepseek-v3.2 复杂推理 DeepSeek 最新
kimi-k2.5 长上下文 256K 上下文
MiniMax-M2.5 通用 MiniMax 旗舰
glm-4.7 中文理解 智谱代码模型
Auto 模式

需在方舟控制台的「开通管理」页面手动开启 Auto 功能,开启后才能使用 ark-code-latest

7.4  腾讯云

2 min
 阶梯定价
三级阶梯(首月 7.9 → 次月 20 → 第三月 40),适合先体验再决定。Lite 18,000 次/月,Pro 90,000 次/月。
Coding Plan 购买链接 →
env 配置
# ~/.openclaw/env # 注意:Coding Plan 专用地址含 /coding/,与通用混元 API 不同 export OPENAI_API_KEY=sk-sp-你的腾讯_CodingPlan_Key export OPENAI_BASE_URL=https://api.lkeap.cloud.tencent.com/coding/v3
json 配置(Auto 模式,推荐)
{ “agent”: { “model”: “tc-code-latest” } }
推荐模型
模型 适用场景 备注
tc-code-latest 通用 Auto 模式,自动匹配模型
hunyuan-turbos 通用编码 腾讯混元,响应快
hunyuan-2.0-instruct 指令跟随 混元 2.0 指令模型
hunyuan-2.0-thinking 深度推理 混元思维模型
hunyuan-t1 复杂任务 混元最新旗舰
glm-5 中文理解 智谱旗舰
kimi-k2.5 长上下文 256K 上下文
MiniMax-M2.5 通用 MiniMax 旗舰

7.5  智谱 GLM

1 min
 MCP 加持
内置联网搜索 MCP(100 次/月)和视觉理解 MCP,GLM-5 旗舰可用。Lite 49 元/月,Pro 149 元/月。
Coding Plan 购买链接 →
env 配置
# ~/.openclaw/env # 注意:Coding Plan 专用地址含 /coding/,与通用智谱 API 不同 export OPENAI_API_KEY=你的智谱_Key export OPENAI_BASE_URL=https://open.bigmodel.cn/api/coding/paas/v4
json 配置
{ “agent”: { “model”: “glm-4.7” } }
推荐模型
模型 适用场景 备注
glm-4.7 日常编码 Lite 即可
glm-4.6 日常编码 Lite 可用
glm-5 复杂任务 旗舰,高峰期 3 倍额度消耗
glm-4.5 简单任务 省额度
glm-4.5-air 轻量任务 省额度

7.6  MiniMax

1 min
 价格最低
29 元/月起,4.9 元/周试用,无周限制,每 5 小时自动刷新额度。
域名说明:国内用 api.minimaxi.com,海外用 api.minimax.io,Key 与域名需匹配。
Coding Plan 购买链接 →
env 配置
# ~/.openclaw/env # API Key 格式:MINIMAX- 前缀 export OPENAI_API_KEY=你的_MiniMax_Key # 国内用户用国内域名 export OPENAI_BASE_URL=https://api.minimaxi.com/v1
json 配置
{ “agent”: { “model”: “MiniMax-M2.5” } }
推荐模型
模型 适用场景 备注
MiniMax-M2.5 通用编码 旗舰模型
MiniMax-M2.5-highspeed 快速迭代 需 Highspeed 专属套餐(98 元/月+)
MiniMax-M2.1 通用 上一代旗舰
MiniMax-M2 简单任务 省额度
注意

MiniMax 无专用 /coding/ 路径,使用标准 API 端点,区别仅在 API Key。

7.7  无问芯穹(Infini)

1 min
 多模型聚合
Lite 40 元/月,Pro 200 元/月,聚合 6+ 热门模型,滑动窗口限速无 RPM 限制。
Coding Plan 购买链接 →
env 配置
# ~/.openclaw/env # 注意:Coding Plan 专用地址含 /coding/,与通用 API 不同 export OPENAI_API_KEY=sk-cp-你的无问芯穹_CodingPlan_Key export OPENAI_BASE_URL=https://cloud.infini-ai.com/maas/coding/v1
json 配置
{ “agent”: { “model”: “deepseek-v3.2” } }
推荐模型
模型 适用场景 备注
deepseek-v3.2 复杂推理 DeepSeek 最新版本
deepseek-v3.2-thinking 深度分析 带思维链,适合难题
kimi-2.5 长上下文 注意:无 “k” 前缀
glm-5 中文理解 智谱旗舰
glm-4.7 日常编码 性价比高
MiniMax-M2.5 通用 MiniMax 旗舰
MiniMax-M2.1 通用 MiniMax 上一代

7.8  联通云

1 min
 限时免费
目前完全免费,12,000 个名额,5 款模型可用。免费活动截止 2026 年 3 月 15 日,先到先得。
联通云 Coding Plan 免费活动 →
env 配置
# ~/.openclaw/env export OPENAI_API_KEY=你的联通云_Key export OPENAI_BASE_URL=联通云提供的_BaseURL
json 配置
{ “agent”: { “model”: “glm-5” } }
可用模型:GLM-5 MiniMax-M2.5 Kimi-K2.5 Qwen3.5 DeepSeek-V3.1

7.9  其他平台速览

1 min
 百度千帆
唯一提供免费试用 + Max 400 元/月档位。首月 7.9-9.9 元。模型:GLM-5、DeepSeek-V3.2、GLM-4.7。
百度千帆 →
 华为云 CodeArts
Lite 40 元/月(首月 7.9),基于华为亿级代码库训练,鸿蒙开发优化。公测免费试用中。
 摩尔线程
Lite 120 元/季度(按季计费),首月免费试用。国产 GPU(MTT S5000),全栈国产。
摩尔线程 →
 快手 KwaiKAT
Mini 29 元/月(首月 8.8),Max 350 元/月。唯一单模型平台(KAT-Coder-Pro V1),跨文件/仓库级代码分析。
 Kimi(月之暗面)
Starter 49 元/月,Mid 99 元/月,Premium 199 元/月。Kimi-K2.5(256K 上下文、多模态)。有自己的终端工具 Kimi Code。
注:K2.5 也可通过百炼/火山/腾讯/联通以更低价格使用。
 硅基流动
暂无独立 Coding Plan,提供按量付费 API。聚合多款开源模型(DeepSeek、Qwen、GLM 等),推理速度 2.3 倍。

7.10  模型支持汇总表

1 min
各平台模型兼容性一览,🟢 = 已验证可用,⚪ = 未明确支持。
模型 百炼 火山 腾讯 百度 华为 联通 智谱 MiniMax Kimi Infini 摩尔 快手
Qwen3.5 🟢
Qwen3.5-Plus 🟢 🟢
Qwen3-Max 🟢
Qwen3-Coder-Next 🟢
Qwen3-Coder-Plus 🟢
Doubao-Seed-2.0-Code 🟢
Doubao-Seed-2.0-Pro 🟢
Doubao-Seed-2.0-Lite 🟢
DeepSeek-V3.2 🟢 🟢 🟢 🟢
DeepSeek-V3.2-Thinking 🟢
DeepSeek-V3.1 🟢
GLM-5 🟢 🟢 🟢 🟢 🟢 🟢 🟢
GLM-4.7 🟢 🟢 🟢 🟢 🟢 🟢
GLM-4.6 🟢
GLM-4.5/Air 🟢
Kimi-K2.5 🟢 🟢 🟢 🟢 🟢 🟢
Kimi-K2-Thinking 🟢
MiniMax M2.5 🟢 🟢 🟢 🟢 🟢 🟢
MiniMax M2.5-HS 🟢
MiniMax M2.1 🟢 🟢
MiniMax M2 🟢
Hunyuan 系列 🟢
KAT-Coder-Pro V1 🟢

7.11  常见问题 FAQ

2 min
Q: 各平台有什么特点?

模型最多:阿里云百炼(8 款模型,首月 7.9 元)
自动调度:火山引擎方舟(Auto 模式自动匹配模型)
价格最低:MiniMax(29 元/月起)或 无问芯穹(40 元/月起)
免费体验:联通云(限时免费,截止 3 月 15 日)

Q: 配置后报错怎么办?
  • 检查 Base URL:必须用 Coding Plan 专用地址(大多含 /coding/ 路径,MiniMax 除外),不是通用 API 地址!用错地址 = 不走套餐额度 = 额外扣费
  • 末尾无 /如 https://xxx.com/coding/v3 而非 https://xxx.com/coding/v3/
  • 检查模型名:必须与平台文档完全一致(区分大小写)
  • 检查 API Key:各平台前缀不同(百炼/腾讯 sk-sp-,无问芯穹 sk-cp-,MiniMax MINIMAX-),不可混用
  • 测试连通性:curl -H "Authorization: Bearer yourKey" yourBaseURL/models
Q: 能同时配多个平台做故障转移吗?
可以!当一个平台限速或宕机时,自动切换到备用平台:
# ~/.openclaw/env — 配置多平台 Key export OPENAI_API_KEY=你的主力平台_Key export OPENAI_BASE_URL=你的主力平台_BaseURL # 备用平台(用于 fallback) export OPENAI_API_KEY_2=你的备用平台_Key
// ~/.openclaw/openclaw.json — fallbacks 配置 { “agents”: { “defaults”: { “model”: { “primary”: “qwen3-coder-plus”, “fallbacks”: [ “deepseek-v3.2”, “glm-4.7” ] } } } }
Q: 速率限制触发冷却怎么办?

Coding Plan 都有滚动窗口速率限制(如百炼 Lite ~1,200 次/5 小时),触发 429 后 OpenClaw 会进入冷却。建议:
1. 配置 fallbacks 备用模型(见上方)
2. 设置 contextTokens: 50000 控制上下文大小,减少不必要的 API 调用
3. 复杂任务完成后用 /compact 压缩会话

该文观点仅代表作者本人,中视数字科技服务平台仅提供信息存储空间服务。