Skip to content

配置国产大模型:通义千问 / 智谱 GLM / Moonshot 接入指南

本指南介绍如何在 OpenClaw 中配置和使用国产大模型提供商。涵盖通义千问 (Qwen)、智谱 GLM、Moonshot AI (Kimi)、MiniMax、DeepSeek 和小米 MiMo 的完整接入流程。

适用人群:需要使用国产 AI 模型作为主力或备选模型的中文用户。无论是因为访问限制、网络延迟、成本控制还是数据合规需求,本指南都能帮助您完成配置。


1. 概述

为什么使用国产模型提供商

  • 可访问性:无需海外支付方式或 VPN,国内网络直连
  • 低延迟:国内节点访问速度更快,编码辅助体验更流畅
  • 成本优势:部分提供商提供免费额度(如通义千问每日 2,000 次请求),按量计费价格通常低于海外服务
  • 数据合规:数据不出境,满足企业内网部署和数据安全要求

兼容的国产提供商

提供商Provider 名称认证方式API 协议推荐模型免费额度国内端点
通义千问 (Qwen)qwen-portalOAuth 设备码内置qwen-portal/coder-model2,000 次/天内置
智谱 GLMzaiAPI Key内置zai/glm-4.7内置
Moonshot AI (Kimi)moonshotAPI Keyopenai-completionsmoonshot/kimi-k2.5api.moonshot.cn
MiniMaxminimaxOAuth / API Keyanthropic-messagesminimax/MiniMax-M2.1Coding Planapi.minimaxi.com
DeepSeek自定义API Keyopenai-completionsdeepseek-chatapi.deepseek.com
小米 MiMoxiaomiAPI Keyanthropic-messagesxiaomi/mimo-v2-flashapi.xiaomimimo.com

2. OpenClaw 模型提供商机制

在配置具体提供商之前,需要了解 OpenClaw 的模型路由机制。

模型引用格式

OpenClaw 使用 provider/model 格式引用模型。例如:

  • moonshot/kimi-k2.5 — Moonshot 提供商的 Kimi K2.5 模型
  • zai/glm-4.7 — Z.AI 提供商的 GLM-4.7 模型
  • minimax/MiniMax-M2.1 — MiniMax 提供商的 M2.1 模型

openclaw.json 配置结构

所有提供商配置位于 openclaw.jsonmodels.providers 字段下:

json5
{
  // 环境变量(密钥通过此方式注入)
  env: { MY_API_KEY: "sk-..." },

  // Agent 默认模型
  agents: {
    defaults: {
      model: { primary: "provider/model-id" },
    },
  },

  // 模型提供商配置
  models: {
    mode: "merge",  // 保留内置提供商,同时添加自定义提供商
    providers: {
      "my-provider": {
        baseUrl: "https://api.example.com/v1",
        apiKey: "${MY_API_KEY}",           // 引用 env 中的变量
        api: "openai-completions",         // API 协议
        models: [
          {
            id: "model-name",
            name: "Display Name",
            reasoning: false,
            input: ["text"],
            contextWindow: 200000,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
}

关键概念

内置提供商 vs 自定义提供商

  • 内置提供商(如 anthropicopenaizai):由 OpenClaw 的 pi-ai 目录预定义,只需设置认证凭据即可使用,无需配置 models.providers
  • 自定义提供商(如 moonshotdeepseek):需要在 models.providers 中手动配置 baseUrlapiKeyapimodels 列表

api 协议字段

OpenClaw 支持以下 API 协议:

协议说明使用的提供商
openai-completionsOpenAI Chat Completions 兼容Moonshot、DeepSeek
openai-responsesOpenAI Responses API 兼容LM Studio
anthropic-messagesAnthropic Messages API 兼容MiniMax、小米 MiMo
google-generative-aiGoogle Generative AI 兼容Google Gemini

models.mode: "merge"

设置为 "merge" 时,自定义提供商会与内置提供商并存。如不设置此字段,自定义配置可能覆盖内置提供商列表。建议始终设置为 "merge"

环境变量插值

openclaw.json 中使用 "${VAR_NAME}" 语法引用环境变量。这些变量在运行时由 OpenClaw 从进程环境中读取,适合敏感信息(如 API 密钥):

json5
{
  env: { MOONSHOT_API_KEY: "sk-abc123" },
  models: {
    providers: {
      moonshot: {
        apiKey: "${MOONSHOT_API_KEY}",  // 运行时替换为 "sk-abc123"
      },
    },
  },
}

3. 通义千问 (Qwen) 配置

通义千问通过 qwen-portal 提供商接入,使用 OAuth 设备码认证流程,无需购买 API Key,每日免费额度 2,000 次请求。

启用插件

通义千问使用 OAuth 插件认证,首先需要启用插件:

bash
openclaw plugins enable qwen-portal-auth

如果网关已在运行,需要重启:

bash
openclaw gateway restart

登录认证

bash
openclaw models auth login --provider qwen-portal --set-default

执行后会显示一个设备码和链接,在浏览器中打开链接并输入设备码完成认证。

可用模型

模型引用说明
qwen-portal/coder-modelQwen Coder,代码生成和辅助
qwen-portal/vision-modelQwen Vision,多模态(文本+图片)

配置示例

认证完成后,设置默认模型:

json5
{
  agents: {
    defaults: {
      model: { primary: "qwen-portal/coder-model" },
      models: {
        "qwen-portal/coder-model": { alias: "Qwen Coder" },
        "qwen-portal/vision-model": { alias: "Qwen Vision" },
      },
    },
  },
}

注意事项

  • OAuth Token 会自动刷新,无需手动管理
  • 如果您已安装 Qwen Code CLI 并完成登录,OpenClaw 可以复用已有凭据
  • 免费额度为每日 2,000 次请求,超出后需等待次日重置
  • qwen-portal 是内置提供商,无需配置 models.providers

4. 智谱 GLM (Z.AI) 配置

GLM 是由智谱 AI 开发的模型家族,通过 Z.AI 平台的 API 提供服务。在 OpenClaw 中使用 zai 提供商访问。

获取 API Key

  1. 访问 Z.AI 控制台 注册账号
  2. 在控制台创建 API Key

CLI 快速配置

bash
openclaw onboard --auth-choice zai-api-key

或非交互式:

bash
openclaw onboard --zai-api-key "$ZAI_API_KEY"

openclaw.json 配置

json5
{
  env: { ZAI_API_KEY: "sk-..." },
  agents: {
    defaults: {
      model: { primary: "zai/glm-4.7" },
      models: {
        "zai/glm-4.7": { alias: "GLM-4.7" },
        "zai/glm-4.6": { alias: "GLM-4.6" },
      },
    },
  },
}

可用模型

模型引用说明
zai/glm-4.7GLM-4.7,最新旗舰模型
zai/glm-4.6GLM-4.6,上一代模型

注意事项

  • zai 是内置提供商,只需设置 ZAI_API_KEY 即可,无需手动配置 models.providers
  • Z.AI 使用 Bearer Token 认证
  • 提供商别名:z.ai/*z-ai/* 会自动规范化为 zai/*,以下写法等价:
    • zai/glm-4.7
    • z.ai/glm-4.7
    • z-ai/glm-4.7

5. Moonshot AI (Kimi) 配置

Moonshot AI 提供 Kimi 系列模型,使用 OpenAI 兼容的 API 端点。OpenClaw 中有两个独立的提供商:Moonshot API 和 Kimi Coding。

重要:Moonshot API 和 Kimi Coding 是完全独立的提供商,API Key 不可互换,端点和模型引用均不同。

Moonshot API 配置

获取 API Key

  1. 访问 Moonshot 开放平台 注册账号
  2. 创建 API Key

CLI 快速配置

bash
openclaw onboard --auth-choice moonshot-api-key

openclaw.json 完整配置

json5
{
  env: { MOONSHOT_API_KEY: "sk-..." },
  agents: {
    defaults: {
      model: { primary: "moonshot/kimi-k2.5" },
      models: {
        "moonshot/kimi-k2.5": { alias: "Kimi K2.5" },
        "moonshot/kimi-k2-thinking": { alias: "Kimi K2 Thinking" },
        "moonshot/kimi-k2-thinking-turbo": { alias: "Kimi K2 Thinking Turbo" },
      },
    },
  },
  models: {
    mode: "merge",
    providers: {
      moonshot: {
        baseUrl: "https://api.moonshot.cn/v1",  // 国内端点
        apiKey: "${MOONSHOT_API_KEY}",
        api: "openai-completions",
        models: [
          {
            id: "kimi-k2.5",
            name: "Kimi K2.5",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 256000,
            maxTokens: 8192,
          },
          {
            id: "kimi-k2-thinking",
            name: "Kimi K2 Thinking",
            reasoning: true,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 256000,
            maxTokens: 8192,
          },
          {
            id: "kimi-k2-thinking-turbo",
            name: "Kimi K2 Thinking Turbo",
            reasoning: true,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 256000,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
}

可用模型 (Moonshot API)

模型引用推理能力说明
moonshot/kimi-k2.5Kimi K2.5,最新通用模型
moonshot/kimi-k2-0905-previewKimi K2 预览版
moonshot/kimi-k2-turbo-previewKimi K2 Turbo 预览版
moonshot/kimi-k2-thinkingKimi K2 Thinking,推理增强
moonshot/kimi-k2-thinking-turboKimi K2 Thinking Turbo,快速推理

Kimi Coding 配置

Kimi Coding 是 Moonshot 面向编码场景的独立提供商:

bash
openclaw onboard --auth-choice kimi-code-api-key
json5
{
  env: { KIMI_API_KEY: "sk-..." },
  agents: {
    defaults: {
      model: { primary: "kimi-coding/k2p5" },
      models: {
        "kimi-coding/k2p5": { alias: "Kimi K2.5" },
      },
    },
  },
}

注意事项

  • 国内端点https://api.moonshot.cn/v1(推荐国内用户使用)
  • 国际端点https://api.moonshot.ai/v1
  • Moonshot 模型引用格式为 moonshot/<modelId>,Kimi Coding 格式为 kimi-coding/<modelId>
  • 如果 Moonshot 更新了模型的上下文限制,需要手动调整 contextWindow

6. MiniMax 配置

MiniMax 提供 M2.1 模型家族,支持 Anthropic 兼容 API。有三种配置方式:OAuth (Coding Plan)、API Key 和作为备选模型。

方式一:MiniMax OAuth (Coding Plan) — 推荐

无需 API Key,通过 OAuth 快速接入:

bash
openclaw plugins enable minimax-portal-auth   # 启用 OAuth 插件
openclaw gateway restart                       # 重启网关
openclaw onboard --auth-choice minimax-portal  # 登录

登录时会提示选择端点:

  • Global — 国际用户 (api.minimax.io)
  • CN — 国内用户 (api.minimaxi.com)

方式二:MiniMax API Key

使用 API Key 直接配置:

bash
openclaw configure
# 选择 Model/auth → MiniMax M2.1

或手动编辑 openclaw.json

json5
{
  env: { MINIMAX_API_KEY: "sk-..." },
  agents: {
    defaults: {
      model: { primary: "minimax/MiniMax-M2.1" },
      models: {
        "minimax/MiniMax-M2.1": { alias: "MiniMax M2.1" },
        "minimax/MiniMax-M2.1-lightning": { alias: "MiniMax Lightning" },
      },
    },
  },
  models: {
    mode: "merge",
    providers: {
      minimax: {
        baseUrl: "https://api.minimax.io/anthropic",
        apiKey: "${MINIMAX_API_KEY}",
        api: "anthropic-messages",
        models: [
          {
            id: "MiniMax-M2.1",
            name: "MiniMax M2.1",
            reasoning: false,
            input: ["text"],
            cost: { input: 15, output: 60, cacheRead: 2, cacheWrite: 10 },
            contextWindow: 200000,
            maxTokens: 8192,
          },
          {
            id: "MiniMax-M2.1-lightning",
            name: "MiniMax M2.1 Lightning",
            reasoning: false,
            input: ["text"],
            cost: { input: 15, output: 60, cacheRead: 2, cacheWrite: 10 },
            contextWindow: 200000,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
}

国内用户:将 baseUrl 改为 "https://api.minimaxi.com/anthropic" 以获得更低延迟。

方式三:作为备选模型

保留 Anthropic Claude 为主模型,MiniMax 作为故障转移备选:

json5
{
  env: { MINIMAX_API_KEY: "sk-..." },
  agents: {
    defaults: {
      models: {
        "anthropic/claude-opus-4-5": { alias: "opus" },
        "minimax/MiniMax-M2.1": { alias: "minimax" },
      },
      model: {
        primary: "anthropic/claude-opus-4-5",
        fallbacks: ["minimax/MiniMax-M2.1"],
      },
    },
  },
}

可用模型

模型引用说明
minimax/MiniMax-M2.1M2.1 标准版,多语言编码、工具调用
minimax/MiniMax-M2.1-lightningM2.1 Lightning,速度更快的变体

注意事项

  • M2.1 vs Lightning:Lightning 是快速变体,MiniMax 会自动路由大部分请求到 Lightning,在流量高峰时回退到标准 M2.1
  • 模型 ID 区分大小写:必须使用 MiniMax-M2.1,而非 minimax-m2.1
  • API 协议优先使用 anthropic-messages,也支持 openai-completions(将 baseUrl 改为 https://api.minimax.io/v1

7. DeepSeek 配置

DeepSeek 没有内置提供商,需要作为自定义提供商配置,使用 OpenAI 兼容的 API 协议。

获取 API Key

  1. 访问 DeepSeek 开放平台 注册账号
  2. 创建 API Key

openclaw.json 配置

json5
{
  env: { DEEPSEEK_API_KEY: "sk-..." },
  agents: {
    defaults: {
      model: { primary: "deepseek/deepseek-chat" },
      models: {
        "deepseek/deepseek-chat": { alias: "DeepSeek Chat" },
        "deepseek/deepseek-reasoner": { alias: "DeepSeek Reasoner" },
      },
    },
  },
  models: {
    mode: "merge",
    providers: {
      deepseek: {
        baseUrl: "https://api.deepseek.com/v1",
        apiKey: "${DEEPSEEK_API_KEY}",
        api: "openai-completions",
        models: [
          {
            id: "deepseek-chat",
            name: "DeepSeek Chat",
            reasoning: false,
            input: ["text"],
            cost: { input: 1, output: 2, cacheRead: 0.1, cacheWrite: 1 },
            contextWindow: 128000,
            maxTokens: 8192,
          },
          {
            id: "deepseek-reasoner",
            name: "DeepSeek Reasoner",
            reasoning: true,
            input: ["text"],
            cost: { input: 4, output: 16, cacheRead: 1, cacheWrite: 4 },
            contextWindow: 128000,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
}

可用模型

模型引用推理能力说明
deepseek/deepseek-chatDeepSeek V3,通用对话和编码
deepseek/deepseek-reasonerDeepSeek R1,推理增强,数学/逻辑

替代访问方式

DeepSeek 模型也可通过以下方式访问:

  • OpenRouteropenrouter/deepseek/deepseek-chat
  • Ollama 本地推理ollama pull deepseek-r1 后使用 ollama/deepseek-r1
  • Syntheticsynthetic/hf:deepseek-ai/DeepSeek-V3

8. 小米 MiMo 配置

小米 MiMo 通过 xiaomi 提供商接入,使用 Anthropic 兼容的 API 协议。

获取 API Key

  1. 访问 小米 MiMo 平台 注册账号
  2. 创建 API Key

CLI 快速配置

bash
openclaw onboard --auth-choice xiaomi-api-key

openclaw.json 配置

json5
{
  env: { XIAOMI_API_KEY: "sk-..." },
  agents: {
    defaults: {
      model: { primary: "xiaomi/mimo-v2-flash" },
      models: {
        "xiaomi/mimo-v2-flash": { alias: "MiMo V2 Flash" },
      },
    },
  },
  models: {
    mode: "merge",
    providers: {
      xiaomi: {
        baseUrl: "https://api.xiaomimimo.com/anthropic",
        apiKey: "${XIAOMI_API_KEY}",
        api: "anthropic-messages",
        models: [
          {
            id: "mimo-v2-flash",
            name: "MiMo V2 Flash",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 262144,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
}

可用模型

模型引用上下文窗口说明
xiaomi/mimo-v2-flash262KMiMo V2 Flash,快速响应

注意事项

  • 当设置了 XIAOMI_API_KEY 环境变量时,xiaomi 提供商会被自动注入
  • API 协议使用 anthropic-messages

9. 测试模型连通性

配置完成后,务必测试模型是否可以正常使用。

列出已配置模型

bash
openclaw models list

预期输出示例:

Available models:
  moonshot/kimi-k2.5          Kimi K2.5
  moonshot/kimi-k2-thinking   Kimi K2 Thinking
  zai/glm-4.7                 GLM-4.7
  minimax/MiniMax-M2.1        MiniMax M2.1
  deepseek/deepseek-chat      DeepSeek Chat
  xiaomi/mimo-v2-flash        MiMo V2 Flash

发送测试消息

bash
openclaw chat --model moonshot/kimi-k2.5 "你好,请简单介绍一下你自己"

切换默认模型

bash
openclaw models set moonshot/kimi-k2.5

模型未出现时的排查

如果执行 openclaw models list 后看不到已配置的模型:

  1. 检查 openclaw.json 语法:确保 JSON5 格式正确,无遗漏逗号或括号
  2. 检查环境变量:确认 env 中的 API Key 已正确填写
  3. 检查 models.mode:确保设置为 "merge"
  4. 重启网关openclaw gateway restart
  5. 检查插件状态(Qwen/MiniMax OAuth):openclaw plugins list

10. 模型故障转移配置

OpenClaw 支持两级故障转移机制,确保模型服务的高可用性。

两级故障转移

  1. 认证配置轮换:同一提供商下的多个认证配置(如多个 API Key)之间轮换
  2. 模型回退:当提供商的所有认证配置都失败后,回退到 agents.defaults.model.fallbacks 中的下一个模型

示例:国产模型主力 + 国产模型备选

json5
{
  env: {
    MOONSHOT_API_KEY: "sk-...",
    MINIMAX_API_KEY: "sk-...",
    DEEPSEEK_API_KEY: "sk-...",
  },
  agents: {
    defaults: {
      models: {
        "moonshot/kimi-k2.5": { alias: "Kimi" },
        "minimax/MiniMax-M2.1": { alias: "MiniMax" },
        "deepseek/deepseek-chat": { alias: "DeepSeek" },
      },
      model: {
        primary: "moonshot/kimi-k2.5",
        fallbacks: ["minimax/MiniMax-M2.1", "deepseek/deepseek-chat"],
      },
    },
  },
}

示例:国产模型主力 + 国际模型备选

json5
{
  env: {
    MOONSHOT_API_KEY: "sk-...",
  },
  agents: {
    defaults: {
      models: {
        "moonshot/kimi-k2.5": { alias: "Kimi" },
        "anthropic/claude-opus-4-5": { alias: "Claude" },
      },
      model: {
        primary: "moonshot/kimi-k2.5",
        fallbacks: ["anthropic/claude-opus-4-5"],
      },
    },
  },
}

冷却行为

当认证配置因认证错误或频率限制失败时,OpenClaw 会标记冷却期并使用指数退避:

失败次数冷却时间
11 分钟
25 分钟
325 分钟
4+1 小时(上限)

计费类失败(如余额不足)使用更长的退避:初始 5 小时,翻倍递增,上限 24 小时。

会话粘性

OpenClaw 会在会话期间固定使用同一认证配置,以保持提供商缓存。固定的配置会一直使用,直到:

  • 会话被重置(/new/reset
  • 压缩完成
  • 当前配置进入冷却期

11. 性能对比与选型建议

综合对比表

提供商模型上下文窗口推理能力视觉能力定价API 协议推荐场景
通义千问coder-model是 (vision-model)免费 2,000 次/天内置免费试用、日常编码
智谱 GLMglm-4.7按量计费内置多语言任务、中文理解
Moonshotkimi-k2.5256K按量计费openai-completions长上下文、通用编码
Moonshotkimi-k2-thinking256K按量计费openai-completions复杂推理、算法
MiniMaxMiniMax-M2.1200K按量计费 / Coding Plananthropic-messages多语言编码、工具调用
DeepSeekdeepseek-chat128K低成本openai-completions通用编码、性价比
DeepSeekdeepseek-reasoner128K按量计费openai-completions数学、逻辑推理
小米 MiMomimo-v2-flash262K按量计费anthropic-messages长上下文、快速响应

选型建议

  • 免费试用:通义千问 (Qwen) — 每日 2,000 次免费请求,OAuth 登录即可
  • 复杂推理:Kimi K2 Thinking / DeepSeek Reasoner — 支持 reasoning 模式
  • Claude 兼容体验:MiniMax M2.1 — 使用 Anthropic Messages API,行为最接近 Claude
  • 多语言编码:智谱 GLM-4.7 — 中英文理解均衡
  • 数学/逻辑:DeepSeek Reasoner — 数学推理能力突出
  • 长上下文:小米 MiMo V2 Flash (262K) / Kimi K2.5 (256K) — 超长上下文窗口
  • 低延迟:使用各提供商的国内端点(如 api.moonshot.cnapi.minimaxi.com),国内访问延迟显著低于国际端点

12. 常见错误与排查

"Unknown model: xxx/yyy"

原因:提供商未配置,或环境变量未设置。

排查步骤:

  1. 检查 models.providers 中是否已添加该提供商
  2. 检查 env 中的 API Key 是否已填写
  3. 检查模型 ID 大小写是否正确(如 MiniMax-M2.1 而非 minimax-m2.1
  4. 运行 openclaw models list 确认模型是否已加载

API 协议不匹配

症状:请求返回 4xx 错误,或返回内容格式异常。

原因api 字段设置错误。

提供商正确的 api
Moonshotopenai-completions
MiniMaxanthropic-messages
DeepSeekopenai-completions
小米 MiMoanthropic-messages

频率限制

症状:请求返回 429 Too Many Requests。

排查步骤:

  1. 通义千问:免费额度为每日 2,000 次请求,超出后需等待次日重置或升级套餐
  2. 其他提供商:检查账户的 API 调用配额,考虑配置模型故障转移
  3. OpenClaw 的冷却机制会自动处理频率限制,自动轮换到下一个认证配置或备选模型

网络连接问题

症状:请求超时或连接失败。

排查步骤:

  1. 国内用户:确认使用国内端点
    • Moonshot:https://api.moonshot.cn/v1(非 api.moonshot.ai
    • MiniMax:https://api.minimaxi.com/anthropic(非 api.minimax.io
  2. 检查网络是否可以访问目标域名:curl -I https://api.moonshot.cn/v1/models
  3. 检查防火墙或代理配置

插件未启用

症状:通义千问或 MiniMax OAuth 登录失败,提示插件未找到。

解决方案:

bash
# 通义千问
openclaw plugins enable qwen-portal-auth
openclaw gateway restart

# MiniMax
openclaw plugins enable minimax-portal-auth
openclaw gateway restart

启用插件后务必重启网关。

Key 格式错误

症状:认证失败,返回 401 Unauthorized。

排查步骤:

  1. 确认 API Key 前缀格式正确(大多数提供商使用 sk- 前缀)
  2. 确认 Key 没有多余的空格或换行符
  3. 确认 Key 对应正确的提供商(Moonshot Key 和 Kimi Coding Key 不可互换)

13. 相关文档

上游提供商文档(英文)

  • Moonshot AI — Kimi K2 模型、双提供商配置
  • MiniMax — M2.1 模型、OAuth 和 API Key 配置
  • GLM 模型 — GLM 模型家族概览
  • Z.AI — Z.AI 平台 API Key 配置

概念文档

网关配置

  • 网关配置models.providers schema 参考、完整配置选项

外部链接