OpenClaw 如何换模型 API:完整配置指南(2026)

OpenClaw 支持通过修改 models.json 配置文件或使用 /model 命令,随时切换 OpenAI、Claude、Gemini、Ollama 等 30+ 家模型提供商的 API。切换无需重启,配置生效即时生效。

openclaw如何换模型API-img1


OpenClaw 支持哪些模型 API?

OpenClaw 将模型提供商分为三类,覆盖主流云端与本地部署场景:

云端 API 提供商

提供商 代表模型 适用场景
Anthropic claude-sonnet-4-6、claude-opus-4-6 代码、推理、长文本
OpenAI gpt-5、gpt-5.4 通用对话、函数调用
Google gemini-2.0-flash、gemini-pro 多模态、搜索增强
xAI grok-3 实时信息查询
Mistral mistral-large、codestral 欧洲合规场景
Groq llama-3.3-70b 超低延迟推理
Perplexity sonar-pro 联网搜索回答

国内大模型提供商

OpenClaw 原生支持以下国内模型,无需任何代理:

  • DeepSeek(DeepSeek-V3、DeepSeek-R1)
  • Moonshot / Kimi(moonshot-v1-8k/32k/128k)
  • 智谱 GLM(glm-4-plus、glm-zero-preview)
  • MiniMax(abab6.5s)
  • 阿里通义千问 Qwen(qwen-max、qwen-turbo)
  • 字节豆包 Volcengine / Doubao(doubao-pro-32k)
  • 百度千帆 Qianfan(ERNIE-Speed、ERNIE-4.0)

本地部署模型

工具 说明
Ollama 最常用的本地推理方案,支持 Llama、Qwen、Gemma 等
vLLM 高吞吐量服务端推理,适合团队共享
LM Studio 图形化管理本地模型,兼容 OpenAI 接口
SGLang 结构化生成优化,适合 Agent 场景

根据 GitHub 仓库数据,OpenClaw 主仓库(openclaw/openclaw)已获得 331k Stars(截至 2026 年 3 月),生态技能库 VoltAgent/awesome-openclaw-skills 收录超过 5,400 个社区技能


方法一:修改 models.json 配置文件(推荐)

这是最灵活的模型切换方式,支持设置主模型、备用模型和多模型白名单。

第一步:找到配置文件位置

# macOS / Linux
~/.openclaw/models.json

# Windows
C:\Users\<用户名>\.openclaw\models.json

第二步:编辑配置文件

基础配置结构如下:

{
  agent: {
    // 主模型:切换此处即更换默认模型
    model: { primary: "anthropic/claude-sonnet-4-6" },

    // 已启用的模型白名单
    models: {
      "anthropic/claude-sonnet-4-6": { alias: "Sonnet" },
      "anthropic/claude-opus-4-6":   { alias: "Opus" },
      "openai/gpt-5.4":               { alias: "GPT-5.4" },
      "deepseek/deepseek-v3":        { alias: "DeepSeek" },
    },
  },
}

第三步:配置 API Key

每个提供商的 API Key 在 auth 配置中单独设置:

# 方式一:CLI 交互式配置(推荐新手)
openclaw onboard

# 方式二:直接设置环境变量
export ANTHROPIC_API_KEY="sk-ant-..."
export OPENAI_API_KEY="sk-..."
export DEEPSEEK_API_KEY="sk-..."

第四步:验证配置生效

openclaw models list     # 查看当前可用模型
openclaw models status   # 检查各提供商连通性

方法二:聊天中临时切换模型

无需修改配置文件,在对话框内直接使用命令切换,仅对当前会话有效

命令 说明
/model 打开图形化模型选择器
/model list 列出所有已配置的可用模型
/model 3 按列表编号快速切换
/model openai/gpt-5.4 指定完整模型路径切换
/model deepseek/deepseek-v3 切换至 DeepSeek V3

适用场景:需要临时用某个模型处理特定任务(如用 o3 做复杂推理,完成后切回默认模型)。


方法三:CLI 命令行切换

# 永久切换默认模型
openclaw models set anthropic/claude-sonnet-4-6

# 查看当前模型配置
openclaw models status

# 添加备用模型(fallback)
openclaw models fallbacks add openai/gpt-5.4

设置备用模型(Failover)

当主模型 API 故障或超出速率限制时,OpenClaw 自动切换到备用模型,无感知降级:

{
  agent: {
    model: {
      primary: "anthropic/claude-sonnet-4-6",
      // 按优先级排列备用链
      fallbacks: [
        "openai/gpt-5.4",
        "deepseek/deepseek-v3",
        "ollama/qwen2.5:14b",   // 最终兜底:本地模型
      ],
    },
  },
}

这种"云端主力 + 本地兜底"的架构,可将模型不可用时间降至接近零。[数据待核实:建议引用 OpenClaw 官方文档中的 failover 性能数据]

openclaw如何换模型API-img2


接入 Ollama 本地模型

本地模型适合隐私敏感场景或网络受限环境。

前提条件

# 安装 Ollama 并拉取模型
brew install ollama          # macOS
ollama pull qwen2.5:14b      # 下载通义千问 14B
ollama serve                 # 启动本地推理服务(默认端口 11434)

OpenClaw 配置

{
  agent: {
    model: { primary: "ollama/qwen2.5:14b" },
    models: {
      "ollama/qwen2.5:14b":   { alias: "Qwen-14B-Local" },
      "ollama/llama3.3:70b":  { alias: "Llama3-Local" },
    },
    // 指向本地 Ollama 服务地址
    providers: {
      ollama: { baseURL: "http://localhost:11434" },
    },
  },
}

国内用户:接入国产大模型的推荐方案

国内网络环境下,直接调用 OpenAI / Anthropic 原生 API 可能存在延迟或连通性问题。以下是两种主流方案:

方案 A:直接配置国产模型 API

OpenClaw 原生支持 DeepSeek、Kimi、GLM 等,无需中转:

{
  agent: {
    model: { primary: "deepseek/deepseek-v3" },
    models: {
      "deepseek/deepseek-v3":    { alias: "DeepSeek V3" },
      "moonshot/moonshot-v1-32k": { alias: "Kimi 32K" },
      "zhipu/glm-4-plus":        { alias: "GLM-4-Plus" },
    },
  },
}

方案 B:通过统一 API 网关同时接入多家模型

国内另一种常见做法是使用聚合 API 网关,用一个 API Key、一个 baseURL 访问多家模型,省去为每个提供商单独申请和管理密钥的成本。

七牛云 AI 推理服务(portal.qiniu.com/ai-inference/api-key)同时兼容 OpenAI 和 Anthropic 两种 API 格式,支持 Claude、GPT、Gemini、DeepSeek、Kimi、MiniMax 等主流模型,国内直连无需代理。OpenClaw 配置示例如下:

{
  agent: {
    providers: {
      // 替换 baseURL 和 apiKey,其余配置不变
      openai: {
        baseURL: "https://api.qnaigc.com/v1",
        apiKey:  "YOUR_QINIU_API_KEY",
      },
    },
    model: { primary: "openai/claude-sonnet-4-6" },
    // 同一个 Key 可自由切换以下所有模型
    models: {
      "openai/claude-sonnet-4-6":      { alias: "Claude Sonnet" },
      "openai/gpt-5.4":                 { alias: "GPT-5.4" },
      "openai/gemini-3.0-flash":       { alias: "Gemini Flash" },
      "openai/deepseek-v3":            { alias: "DeepSeek V3" },
      "openai/moonshot-v1-32k":        { alias: "Kimi 32K" },
      "openai/abab6.5s":               { alias: "MiniMax" },
    },
  },
}

这种方案的优势是:只需在七牛云申请一次 API Key,即可在 OpenClaw 中自由切换上述所有模型,不需要分别注册 Anthropic、OpenAI、Google 等多个海外账号。

三种方案对比

维度 方案 A:直接配置国产 API 方案 B:七牛云聚合 API 原生海外 API
网络延迟 低(< 100ms) 低(国内直连) 可能受限
支持模型 国产模型为主 Claude/GPT/Gemini/DeepSeek/Kimi/MiniMax 等 对应提供商模型
账号管理 每家单独申请 Key 一个 Key 多模型 每家单独申请
中文理解 优秀 优秀 良好
合规性 满足国内要求 满足国内要求 需评估

零配置方案:Linclaw 桌面版

对于不熟悉命令行配置的用户,七牛云推出的 Linclaw 是 OpenClaw 的桌面封装版本,macOS/Windows 双击安装包即可使用,内置 DeepSeek、Kimi、GLM、MiniMax 一键接入,无需手动编辑配置文件,适合国内企业和非技术用户快速落地 AI 助手。

下载地址:linclaw.qnlinking.com


常见问题

Q:OpenClaw 切换模型后需要重启吗?
不需要。修改 models.json 后,下一次新建会话时自动使用新模型;使用 /model 命令切换则立即生效。

Q:OpenClaw 如何同时配置多个提供商的 API Key?
每个提供商的 Key 独立配置,互不影响。推荐通过 openclaw onboard 交互式向导一次性完成所有提供商的认证,也可以直接设置对应的环境变量(如 ANTHROPIC_API_KEYOPENAI_API_KEY)。

Q:OpenClaw 免费模型有哪些?
通过 OpenRouter 可以访问部分免费模型(如 Meta Llama 3.3 70B Instruct Free);本地部署 Ollama 无调用费用,仅需承担本机算力;DeepSeek API 定价极低,[数据待核实:建议核查 DeepSeek 最新定价页面]。

Q:切换到 OpenRouter 如何配置?
OpenRouter 作为模型聚合平台,统一使用一个 API Key 访问 200+ 模型:

{
  agent: {
    providers: {
      openrouter: {
        apiKey: "YOUR_OPENROUTER_KEY",
      },
    },
    model: { primary: "openrouter/meta-llama/llama-3.3-70b-instruct" },
  },
}

Q:models.json 配置格式是 JSON 还是 JSON5?
OpenClaw 使用 JSON5 格式,支持注释(//)和末尾逗号,比标准 JSON 更易维护。配置文件路径默认为 ~/.openclaw/models.json


小结

OpenClaw 的模型切换方案可归纳为三种路径:

  • 即时切换/model 命令,当前会话有效
  • 永久配置:修改 ~/.openclaw/models.json 中的 primary 字段
  • 智能降级:配置 fallbacks 列表,实现主模型故障自动切换

OpenClaw 官方文档(docs.openclaw.ai)对各提供商的配置参数有详细说明,建议参考官方文档获取最新的模型名称格式。本文内容基于 2026 年 3 月数据,模型提供商的 API 格式和定价会持续更新,建议定期查阅各提供商官网核实。


延伸资源:

  • OpenClaw 多模型对比测试:qiniu.com/ai/models
  • OpenClaw 官方文档:docs.openclaw.ai/concepts/models
posted @ 2026-03-23 15:17  七牛云行业应用  阅读(194)  评论(0)    收藏  举报