配置国产大模型:通义千问 / 智谱 GLM / Moonshot 接入指南
本指南介绍如何在 OpenClaw 中配置和使用国产大模型提供商。涵盖通义千问 (Qwen)、智谱 GLM、Moonshot AI (Kimi)、MiniMax、DeepSeek 和小米 MiMo 的完整接入流程。
适用人群:需要使用国产 AI 模型作为主力或备选模型的中文用户。无论是因为访问限制、网络延迟、成本控制还是数据合规需求,本指南都能帮助您完成配置。
1. 概述
为什么使用国产模型提供商
- 可访问性:无需海外支付方式或 VPN,国内网络直连
- 低延迟:国内节点访问速度更快,编码辅助体验更流畅
- 成本优势:部分提供商提供免费额度(如通义千问每日 2,000 次请求),按量计费价格通常低于海外服务
- 数据合规:数据不出境,满足企业内网部署和数据安全要求
兼容的国产提供商
| 提供商 | Provider 名称 | 认证方式 | API 协议 | 推荐模型 | 免费额度 | 国内端点 |
|---|---|---|---|---|---|---|
| 通义千问 (Qwen) | qwen-portal | OAuth 设备码 | 内置 | qwen-portal/coder-model | 2,000 次/天 | 内置 |
| 智谱 GLM | zai | API Key | 内置 | zai/glm-4.7 | 否 | 内置 |
| Moonshot AI (Kimi) | moonshot | API Key | openai-completions | moonshot/kimi-k2.5 | 否 | api.moonshot.cn |
| MiniMax | minimax | OAuth / API Key | anthropic-messages | minimax/MiniMax-M2.1 | Coding Plan | api.minimaxi.com |
| DeepSeek | 自定义 | API Key | openai-completions | deepseek-chat | 否 | api.deepseek.com |
| 小米 MiMo | xiaomi | API Key | anthropic-messages | xiaomi/mimo-v2-flash | 否 | api.xiaomimimo.com |
2. OpenClaw 模型提供商机制
在配置具体提供商之前,需要了解 OpenClaw 的模型路由机制。
模型引用格式
OpenClaw 使用 provider/model 格式引用模型。例如:
moonshot/kimi-k2.5— Moonshot 提供商的 Kimi K2.5 模型zai/glm-4.7— Z.AI 提供商的 GLM-4.7 模型minimax/MiniMax-M2.1— MiniMax 提供商的 M2.1 模型
openclaw.json 配置结构
所有提供商配置位于 openclaw.json 的 models.providers 字段下:
{
// 环境变量(密钥通过此方式注入)
env: { MY_API_KEY: "sk-..." },
// Agent 默认模型
agents: {
defaults: {
model: { primary: "provider/model-id" },
},
},
// 模型提供商配置
models: {
mode: "merge", // 保留内置提供商,同时添加自定义提供商
providers: {
"my-provider": {
baseUrl: "https://api.example.com/v1",
apiKey: "${MY_API_KEY}", // 引用 env 中的变量
api: "openai-completions", // API 协议
models: [
{
id: "model-name",
name: "Display Name",
reasoning: false,
input: ["text"],
contextWindow: 200000,
maxTokens: 8192,
},
],
},
},
},
}关键概念
内置提供商 vs 自定义提供商
- 内置提供商(如
anthropic、openai、zai):由 OpenClaw 的 pi-ai 目录预定义,只需设置认证凭据即可使用,无需配置models.providers - 自定义提供商(如
moonshot、deepseek):需要在models.providers中手动配置baseUrl、apiKey、api和models列表
api 协议字段
OpenClaw 支持以下 API 协议:
| 协议 | 说明 | 使用的提供商 |
|---|---|---|
openai-completions | OpenAI Chat Completions 兼容 | Moonshot、DeepSeek |
openai-responses | OpenAI Responses API 兼容 | LM Studio |
anthropic-messages | Anthropic Messages API 兼容 | MiniMax、小米 MiMo |
google-generative-ai | Google Generative AI 兼容 | Google Gemini |
models.mode: "merge"
设置为 "merge" 时,自定义提供商会与内置提供商并存。如不设置此字段,自定义配置可能覆盖内置提供商列表。建议始终设置为 "merge"。
环境变量插值
在 openclaw.json 中使用 "${VAR_NAME}" 语法引用环境变量。这些变量在运行时由 OpenClaw 从进程环境中读取,适合敏感信息(如 API 密钥):
{
env: { MOONSHOT_API_KEY: "sk-abc123" },
models: {
providers: {
moonshot: {
apiKey: "${MOONSHOT_API_KEY}", // 运行时替换为 "sk-abc123"
},
},
},
}3. 通义千问 (Qwen) 配置
通义千问通过 qwen-portal 提供商接入,使用 OAuth 设备码认证流程,无需购买 API Key,每日免费额度 2,000 次请求。
启用插件
通义千问使用 OAuth 插件认证,首先需要启用插件:
openclaw plugins enable qwen-portal-auth如果网关已在运行,需要重启:
bashopenclaw gateway restart
登录认证
openclaw models auth login --provider qwen-portal --set-default执行后会显示一个设备码和链接,在浏览器中打开链接并输入设备码完成认证。
可用模型
| 模型引用 | 说明 |
|---|---|
qwen-portal/coder-model | Qwen Coder,代码生成和辅助 |
qwen-portal/vision-model | Qwen Vision,多模态(文本+图片) |
配置示例
认证完成后,设置默认模型:
{
agents: {
defaults: {
model: { primary: "qwen-portal/coder-model" },
models: {
"qwen-portal/coder-model": { alias: "Qwen Coder" },
"qwen-portal/vision-model": { alias: "Qwen Vision" },
},
},
},
}注意事项
- OAuth Token 会自动刷新,无需手动管理
- 如果您已安装 Qwen Code CLI 并完成登录,OpenClaw 可以复用已有凭据
- 免费额度为每日 2,000 次请求,超出后需等待次日重置
qwen-portal是内置提供商,无需配置models.providers
4. 智谱 GLM (Z.AI) 配置
GLM 是由智谱 AI 开发的模型家族,通过 Z.AI 平台的 API 提供服务。在 OpenClaw 中使用 zai 提供商访问。
获取 API Key
- 访问 Z.AI 控制台 注册账号
- 在控制台创建 API Key
CLI 快速配置
openclaw onboard --auth-choice zai-api-key或非交互式:
openclaw onboard --zai-api-key "$ZAI_API_KEY"openclaw.json 配置
{
env: { ZAI_API_KEY: "sk-..." },
agents: {
defaults: {
model: { primary: "zai/glm-4.7" },
models: {
"zai/glm-4.7": { alias: "GLM-4.7" },
"zai/glm-4.6": { alias: "GLM-4.6" },
},
},
},
}可用模型
| 模型引用 | 说明 |
|---|---|
zai/glm-4.7 | GLM-4.7,最新旗舰模型 |
zai/glm-4.6 | GLM-4.6,上一代模型 |
注意事项
zai是内置提供商,只需设置ZAI_API_KEY即可,无需手动配置models.providers- Z.AI 使用 Bearer Token 认证
- 提供商别名:
z.ai/*和z-ai/*会自动规范化为zai/*,以下写法等价:zai/glm-4.7z.ai/glm-4.7z-ai/glm-4.7
5. Moonshot AI (Kimi) 配置
Moonshot AI 提供 Kimi 系列模型,使用 OpenAI 兼容的 API 端点。OpenClaw 中有两个独立的提供商:Moonshot API 和 Kimi Coding。
重要:Moonshot API 和 Kimi Coding 是完全独立的提供商,API Key 不可互换,端点和模型引用均不同。
Moonshot API 配置
获取 API Key
- 访问 Moonshot 开放平台 注册账号
- 创建 API Key
CLI 快速配置
openclaw onboard --auth-choice moonshot-api-keyopenclaw.json 完整配置
{
env: { MOONSHOT_API_KEY: "sk-..." },
agents: {
defaults: {
model: { primary: "moonshot/kimi-k2.5" },
models: {
"moonshot/kimi-k2.5": { alias: "Kimi K2.5" },
"moonshot/kimi-k2-thinking": { alias: "Kimi K2 Thinking" },
"moonshot/kimi-k2-thinking-turbo": { alias: "Kimi K2 Thinking Turbo" },
},
},
},
models: {
mode: "merge",
providers: {
moonshot: {
baseUrl: "https://api.moonshot.cn/v1", // 国内端点
apiKey: "${MOONSHOT_API_KEY}",
api: "openai-completions",
models: [
{
id: "kimi-k2.5",
name: "Kimi K2.5",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 256000,
maxTokens: 8192,
},
{
id: "kimi-k2-thinking",
name: "Kimi K2 Thinking",
reasoning: true,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 256000,
maxTokens: 8192,
},
{
id: "kimi-k2-thinking-turbo",
name: "Kimi K2 Thinking Turbo",
reasoning: true,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 256000,
maxTokens: 8192,
},
],
},
},
},
}可用模型 (Moonshot API)
| 模型引用 | 推理能力 | 说明 |
|---|---|---|
moonshot/kimi-k2.5 | 否 | Kimi K2.5,最新通用模型 |
moonshot/kimi-k2-0905-preview | 否 | Kimi K2 预览版 |
moonshot/kimi-k2-turbo-preview | 否 | Kimi K2 Turbo 预览版 |
moonshot/kimi-k2-thinking | 是 | Kimi K2 Thinking,推理增强 |
moonshot/kimi-k2-thinking-turbo | 是 | Kimi K2 Thinking Turbo,快速推理 |
Kimi Coding 配置
Kimi Coding 是 Moonshot 面向编码场景的独立提供商:
openclaw onboard --auth-choice kimi-code-api-key{
env: { KIMI_API_KEY: "sk-..." },
agents: {
defaults: {
model: { primary: "kimi-coding/k2p5" },
models: {
"kimi-coding/k2p5": { alias: "Kimi K2.5" },
},
},
},
}注意事项
- 国内端点:
https://api.moonshot.cn/v1(推荐国内用户使用) - 国际端点:
https://api.moonshot.ai/v1 - Moonshot 模型引用格式为
moonshot/<modelId>,Kimi Coding 格式为kimi-coding/<modelId> - 如果 Moonshot 更新了模型的上下文限制,需要手动调整
contextWindow值
6. MiniMax 配置
MiniMax 提供 M2.1 模型家族,支持 Anthropic 兼容 API。有三种配置方式:OAuth (Coding Plan)、API Key 和作为备选模型。
方式一:MiniMax OAuth (Coding Plan) — 推荐
无需 API Key,通过 OAuth 快速接入:
openclaw plugins enable minimax-portal-auth # 启用 OAuth 插件
openclaw gateway restart # 重启网关
openclaw onboard --auth-choice minimax-portal # 登录登录时会提示选择端点:
- Global — 国际用户 (
api.minimax.io) - CN — 国内用户 (
api.minimaxi.com)
方式二:MiniMax API Key
使用 API Key 直接配置:
openclaw configure
# 选择 Model/auth → MiniMax M2.1或手动编辑 openclaw.json:
{
env: { MINIMAX_API_KEY: "sk-..." },
agents: {
defaults: {
model: { primary: "minimax/MiniMax-M2.1" },
models: {
"minimax/MiniMax-M2.1": { alias: "MiniMax M2.1" },
"minimax/MiniMax-M2.1-lightning": { alias: "MiniMax Lightning" },
},
},
},
models: {
mode: "merge",
providers: {
minimax: {
baseUrl: "https://api.minimax.io/anthropic",
apiKey: "${MINIMAX_API_KEY}",
api: "anthropic-messages",
models: [
{
id: "MiniMax-M2.1",
name: "MiniMax M2.1",
reasoning: false,
input: ["text"],
cost: { input: 15, output: 60, cacheRead: 2, cacheWrite: 10 },
contextWindow: 200000,
maxTokens: 8192,
},
{
id: "MiniMax-M2.1-lightning",
name: "MiniMax M2.1 Lightning",
reasoning: false,
input: ["text"],
cost: { input: 15, output: 60, cacheRead: 2, cacheWrite: 10 },
contextWindow: 200000,
maxTokens: 8192,
},
],
},
},
},
}国内用户:将
baseUrl改为"https://api.minimaxi.com/anthropic"以获得更低延迟。
方式三:作为备选模型
保留 Anthropic Claude 为主模型,MiniMax 作为故障转移备选:
{
env: { MINIMAX_API_KEY: "sk-..." },
agents: {
defaults: {
models: {
"anthropic/claude-opus-4-5": { alias: "opus" },
"minimax/MiniMax-M2.1": { alias: "minimax" },
},
model: {
primary: "anthropic/claude-opus-4-5",
fallbacks: ["minimax/MiniMax-M2.1"],
},
},
},
}可用模型
| 模型引用 | 说明 |
|---|---|
minimax/MiniMax-M2.1 | M2.1 标准版,多语言编码、工具调用 |
minimax/MiniMax-M2.1-lightning | M2.1 Lightning,速度更快的变体 |
注意事项
- M2.1 vs Lightning:Lightning 是快速变体,MiniMax 会自动路由大部分请求到 Lightning,在流量高峰时回退到标准 M2.1
- 模型 ID 区分大小写:必须使用
MiniMax-M2.1,而非minimax-m2.1 - API 协议优先使用
anthropic-messages,也支持openai-completions(将baseUrl改为https://api.minimax.io/v1)
7. DeepSeek 配置
DeepSeek 没有内置提供商,需要作为自定义提供商配置,使用 OpenAI 兼容的 API 协议。
获取 API Key
- 访问 DeepSeek 开放平台 注册账号
- 创建 API Key
openclaw.json 配置
{
env: { DEEPSEEK_API_KEY: "sk-..." },
agents: {
defaults: {
model: { primary: "deepseek/deepseek-chat" },
models: {
"deepseek/deepseek-chat": { alias: "DeepSeek Chat" },
"deepseek/deepseek-reasoner": { alias: "DeepSeek Reasoner" },
},
},
},
models: {
mode: "merge",
providers: {
deepseek: {
baseUrl: "https://api.deepseek.com/v1",
apiKey: "${DEEPSEEK_API_KEY}",
api: "openai-completions",
models: [
{
id: "deepseek-chat",
name: "DeepSeek Chat",
reasoning: false,
input: ["text"],
cost: { input: 1, output: 2, cacheRead: 0.1, cacheWrite: 1 },
contextWindow: 128000,
maxTokens: 8192,
},
{
id: "deepseek-reasoner",
name: "DeepSeek Reasoner",
reasoning: true,
input: ["text"],
cost: { input: 4, output: 16, cacheRead: 1, cacheWrite: 4 },
contextWindow: 128000,
maxTokens: 8192,
},
],
},
},
},
}可用模型
| 模型引用 | 推理能力 | 说明 |
|---|---|---|
deepseek/deepseek-chat | 否 | DeepSeek V3,通用对话和编码 |
deepseek/deepseek-reasoner | 是 | DeepSeek R1,推理增强,数学/逻辑 |
替代访问方式
DeepSeek 模型也可通过以下方式访问:
- OpenRouter:
openrouter/deepseek/deepseek-chat - Ollama 本地推理:
ollama pull deepseek-r1后使用ollama/deepseek-r1 - Synthetic:
synthetic/hf:deepseek-ai/DeepSeek-V3
8. 小米 MiMo 配置
小米 MiMo 通过 xiaomi 提供商接入,使用 Anthropic 兼容的 API 协议。
获取 API Key
- 访问 小米 MiMo 平台 注册账号
- 创建 API Key
CLI 快速配置
openclaw onboard --auth-choice xiaomi-api-keyopenclaw.json 配置
{
env: { XIAOMI_API_KEY: "sk-..." },
agents: {
defaults: {
model: { primary: "xiaomi/mimo-v2-flash" },
models: {
"xiaomi/mimo-v2-flash": { alias: "MiMo V2 Flash" },
},
},
},
models: {
mode: "merge",
providers: {
xiaomi: {
baseUrl: "https://api.xiaomimimo.com/anthropic",
apiKey: "${XIAOMI_API_KEY}",
api: "anthropic-messages",
models: [
{
id: "mimo-v2-flash",
name: "MiMo V2 Flash",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 262144,
maxTokens: 8192,
},
],
},
},
},
}可用模型
| 模型引用 | 上下文窗口 | 说明 |
|---|---|---|
xiaomi/mimo-v2-flash | 262K | MiMo V2 Flash,快速响应 |
注意事项
- 当设置了
XIAOMI_API_KEY环境变量时,xiaomi提供商会被自动注入 - API 协议使用
anthropic-messages
9. 测试模型连通性
配置完成后,务必测试模型是否可以正常使用。
列出已配置模型
openclaw models list预期输出示例:
Available models:
moonshot/kimi-k2.5 Kimi K2.5
moonshot/kimi-k2-thinking Kimi K2 Thinking
zai/glm-4.7 GLM-4.7
minimax/MiniMax-M2.1 MiniMax M2.1
deepseek/deepseek-chat DeepSeek Chat
xiaomi/mimo-v2-flash MiMo V2 Flash发送测试消息
openclaw chat --model moonshot/kimi-k2.5 "你好,请简单介绍一下你自己"切换默认模型
openclaw models set moonshot/kimi-k2.5模型未出现时的排查
如果执行 openclaw models list 后看不到已配置的模型:
- 检查
openclaw.json语法:确保 JSON5 格式正确,无遗漏逗号或括号 - 检查环境变量:确认
env中的 API Key 已正确填写 - 检查
models.mode:确保设置为"merge" - 重启网关:
openclaw gateway restart - 检查插件状态(Qwen/MiniMax OAuth):
openclaw plugins list
10. 模型故障转移配置
OpenClaw 支持两级故障转移机制,确保模型服务的高可用性。
两级故障转移
- 认证配置轮换:同一提供商下的多个认证配置(如多个 API Key)之间轮换
- 模型回退:当提供商的所有认证配置都失败后,回退到
agents.defaults.model.fallbacks中的下一个模型
示例:国产模型主力 + 国产模型备选
{
env: {
MOONSHOT_API_KEY: "sk-...",
MINIMAX_API_KEY: "sk-...",
DEEPSEEK_API_KEY: "sk-...",
},
agents: {
defaults: {
models: {
"moonshot/kimi-k2.5": { alias: "Kimi" },
"minimax/MiniMax-M2.1": { alias: "MiniMax" },
"deepseek/deepseek-chat": { alias: "DeepSeek" },
},
model: {
primary: "moonshot/kimi-k2.5",
fallbacks: ["minimax/MiniMax-M2.1", "deepseek/deepseek-chat"],
},
},
},
}示例:国产模型主力 + 国际模型备选
{
env: {
MOONSHOT_API_KEY: "sk-...",
},
agents: {
defaults: {
models: {
"moonshot/kimi-k2.5": { alias: "Kimi" },
"anthropic/claude-opus-4-5": { alias: "Claude" },
},
model: {
primary: "moonshot/kimi-k2.5",
fallbacks: ["anthropic/claude-opus-4-5"],
},
},
},
}冷却行为
当认证配置因认证错误或频率限制失败时,OpenClaw 会标记冷却期并使用指数退避:
| 失败次数 | 冷却时间 |
|---|---|
| 1 | 1 分钟 |
| 2 | 5 分钟 |
| 3 | 25 分钟 |
| 4+ | 1 小时(上限) |
计费类失败(如余额不足)使用更长的退避:初始 5 小时,翻倍递增,上限 24 小时。
会话粘性
OpenClaw 会在会话期间固定使用同一认证配置,以保持提供商缓存。固定的配置会一直使用,直到:
- 会话被重置(
/new或/reset) - 压缩完成
- 当前配置进入冷却期
11. 性能对比与选型建议
综合对比表
| 提供商 | 模型 | 上下文窗口 | 推理能力 | 视觉能力 | 定价 | API 协议 | 推荐场景 |
|---|---|---|---|---|---|---|---|
| 通义千问 | coder-model | — | 否 | 是 (vision-model) | 免费 2,000 次/天 | 内置 | 免费试用、日常编码 |
| 智谱 GLM | glm-4.7 | — | 否 | 否 | 按量计费 | 内置 | 多语言任务、中文理解 |
| Moonshot | kimi-k2.5 | 256K | 否 | 否 | 按量计费 | openai-completions | 长上下文、通用编码 |
| Moonshot | kimi-k2-thinking | 256K | 是 | 否 | 按量计费 | openai-completions | 复杂推理、算法 |
| MiniMax | MiniMax-M2.1 | 200K | 否 | 否 | 按量计费 / Coding Plan | anthropic-messages | 多语言编码、工具调用 |
| DeepSeek | deepseek-chat | 128K | 否 | 否 | 低成本 | openai-completions | 通用编码、性价比 |
| DeepSeek | deepseek-reasoner | 128K | 是 | 否 | 按量计费 | openai-completions | 数学、逻辑推理 |
| 小米 MiMo | mimo-v2-flash | 262K | 否 | 否 | 按量计费 | anthropic-messages | 长上下文、快速响应 |
选型建议
- 免费试用:通义千问 (Qwen) — 每日 2,000 次免费请求,OAuth 登录即可
- 复杂推理:Kimi K2 Thinking / DeepSeek Reasoner — 支持 reasoning 模式
- Claude 兼容体验:MiniMax M2.1 — 使用 Anthropic Messages API,行为最接近 Claude
- 多语言编码:智谱 GLM-4.7 — 中英文理解均衡
- 数学/逻辑:DeepSeek Reasoner — 数学推理能力突出
- 长上下文:小米 MiMo V2 Flash (262K) / Kimi K2.5 (256K) — 超长上下文窗口
- 低延迟:使用各提供商的国内端点(如
api.moonshot.cn、api.minimaxi.com),国内访问延迟显著低于国际端点
12. 常见错误与排查
"Unknown model: xxx/yyy"
原因:提供商未配置,或环境变量未设置。
排查步骤:
- 检查
models.providers中是否已添加该提供商 - 检查
env中的 API Key 是否已填写 - 检查模型 ID 大小写是否正确(如
MiniMax-M2.1而非minimax-m2.1) - 运行
openclaw models list确认模型是否已加载
API 协议不匹配
症状:请求返回 4xx 错误,或返回内容格式异常。
原因:api 字段设置错误。
| 提供商 | 正确的 api 值 |
|---|---|
| Moonshot | openai-completions |
| MiniMax | anthropic-messages |
| DeepSeek | openai-completions |
| 小米 MiMo | anthropic-messages |
频率限制
症状:请求返回 429 Too Many Requests。
排查步骤:
- 通义千问:免费额度为每日 2,000 次请求,超出后需等待次日重置或升级套餐
- 其他提供商:检查账户的 API 调用配额,考虑配置模型故障转移
- OpenClaw 的冷却机制会自动处理频率限制,自动轮换到下一个认证配置或备选模型
网络连接问题
症状:请求超时或连接失败。
排查步骤:
- 国内用户:确认使用国内端点
- Moonshot:
https://api.moonshot.cn/v1(非api.moonshot.ai) - MiniMax:
https://api.minimaxi.com/anthropic(非api.minimax.io)
- Moonshot:
- 检查网络是否可以访问目标域名:
curl -I https://api.moonshot.cn/v1/models - 检查防火墙或代理配置
插件未启用
症状:通义千问或 MiniMax OAuth 登录失败,提示插件未找到。
解决方案:
# 通义千问
openclaw plugins enable qwen-portal-auth
openclaw gateway restart
# MiniMax
openclaw plugins enable minimax-portal-auth
openclaw gateway restart启用插件后务必重启网关。
Key 格式错误
症状:认证失败,返回 401 Unauthorized。
排查步骤:
- 确认 API Key 前缀格式正确(大多数提供商使用
sk-前缀) - 确认 Key 没有多余的空格或换行符
- 确认 Key 对应正确的提供商(Moonshot Key 和 Kimi Coding Key 不可互换)
13. 相关文档
上游提供商文档(英文)
- Moonshot AI — Kimi K2 模型、双提供商配置
- MiniMax — M2.1 模型、OAuth 和 API Key 配置
- GLM 模型 — GLM 模型家族概览
- Z.AI — Z.AI 平台 API Key 配置
概念文档
网关配置
- 网关配置 —
models.providersschema 参考、完整配置选项