OpenClaw 如何换模型 API:完整配置指南(2026)
OpenClaw 支持通过修改 models.json 配置文件或使用 /model 命令,随时切换 OpenAI、Claude、Gemini、Ollama 等 30+ 家模型提供商的 API。切换无需重启,配置生效即时生效。

OpenClaw 支持哪些模型 API?
OpenClaw 将模型提供商分为三类,覆盖主流云端与本地部署场景:
云端 API 提供商
| 提供商 | 代表模型 | 适用场景 |
|---|---|---|
| Anthropic | claude-sonnet-4-6、claude-opus-4-6 | 代码、推理、长文本 |
| OpenAI | gpt-5、gpt-5.4 | 通用对话、函数调用 |
| gemini-2.0-flash、gemini-pro | 多模态、搜索增强 | |
| xAI | grok-3 | 实时信息查询 |
| Mistral | mistral-large、codestral | 欧洲合规场景 |
| Groq | llama-3.3-70b | 超低延迟推理 |
| Perplexity | sonar-pro | 联网搜索回答 |
国内大模型提供商
OpenClaw 原生支持以下国内模型,无需任何代理:
- DeepSeek(DeepSeek-V3、DeepSeek-R1)
- Moonshot / Kimi(moonshot-v1-8k/32k/128k)
- 智谱 GLM(glm-4-plus、glm-zero-preview)
- MiniMax(abab6.5s)
- 阿里通义千问 Qwen(qwen-max、qwen-turbo)
- 字节豆包 Volcengine / Doubao(doubao-pro-32k)
- 百度千帆 Qianfan(ERNIE-Speed、ERNIE-4.0)
本地部署模型
| 工具 | 说明 |
|---|---|
| Ollama | 最常用的本地推理方案,支持 Llama、Qwen、Gemma 等 |
| vLLM | 高吞吐量服务端推理,适合团队共享 |
| LM Studio | 图形化管理本地模型,兼容 OpenAI 接口 |
| SGLang | 结构化生成优化,适合 Agent 场景 |
根据 GitHub 仓库数据,OpenClaw 主仓库(openclaw/openclaw)已获得 331k Stars(截至 2026 年 3 月),生态技能库 VoltAgent/awesome-openclaw-skills 收录超过 5,400 个社区技能。
方法一:修改 models.json 配置文件(推荐)
这是最灵活的模型切换方式,支持设置主模型、备用模型和多模型白名单。
第一步:找到配置文件位置
# macOS / Linux
~/.openclaw/models.json
# Windows
C:\Users\<用户名>\.openclaw\models.json
第二步:编辑配置文件
基础配置结构如下:
{
agent: {
// 主模型:切换此处即更换默认模型
model: { primary: "anthropic/claude-sonnet-4-6" },
// 已启用的模型白名单
models: {
"anthropic/claude-sonnet-4-6": { alias: "Sonnet" },
"anthropic/claude-opus-4-6": { alias: "Opus" },
"openai/gpt-5.4": { alias: "GPT-5.4" },
"deepseek/deepseek-v3": { alias: "DeepSeek" },
},
},
}
第三步:配置 API Key
每个提供商的 API Key 在 auth 配置中单独设置:
# 方式一:CLI 交互式配置(推荐新手)
openclaw onboard
# 方式二:直接设置环境变量
export ANTHROPIC_API_KEY="sk-ant-..."
export OPENAI_API_KEY="sk-..."
export DEEPSEEK_API_KEY="sk-..."
第四步:验证配置生效
openclaw models list # 查看当前可用模型
openclaw models status # 检查各提供商连通性
方法二:聊天中临时切换模型
无需修改配置文件,在对话框内直接使用命令切换,仅对当前会话有效:
| 命令 | 说明 |
|---|---|
/model |
打开图形化模型选择器 |
/model list |
列出所有已配置的可用模型 |
/model 3 |
按列表编号快速切换 |
/model openai/gpt-5.4 |
指定完整模型路径切换 |
/model deepseek/deepseek-v3 |
切换至 DeepSeek V3 |
适用场景:需要临时用某个模型处理特定任务(如用 o3 做复杂推理,完成后切回默认模型)。
方法三:CLI 命令行切换
# 永久切换默认模型
openclaw models set anthropic/claude-sonnet-4-6
# 查看当前模型配置
openclaw models status
# 添加备用模型(fallback)
openclaw models fallbacks add openai/gpt-5.4
设置备用模型(Failover)
当主模型 API 故障或超出速率限制时,OpenClaw 自动切换到备用模型,无感知降级:
{
agent: {
model: {
primary: "anthropic/claude-sonnet-4-6",
// 按优先级排列备用链
fallbacks: [
"openai/gpt-5.4",
"deepseek/deepseek-v3",
"ollama/qwen2.5:14b", // 最终兜底:本地模型
],
},
},
}
这种"云端主力 + 本地兜底"的架构,可将模型不可用时间降至接近零。[数据待核实:建议引用 OpenClaw 官方文档中的 failover 性能数据]

接入 Ollama 本地模型
本地模型适合隐私敏感场景或网络受限环境。
前提条件
# 安装 Ollama 并拉取模型
brew install ollama # macOS
ollama pull qwen2.5:14b # 下载通义千问 14B
ollama serve # 启动本地推理服务(默认端口 11434)
OpenClaw 配置
{
agent: {
model: { primary: "ollama/qwen2.5:14b" },
models: {
"ollama/qwen2.5:14b": { alias: "Qwen-14B-Local" },
"ollama/llama3.3:70b": { alias: "Llama3-Local" },
},
// 指向本地 Ollama 服务地址
providers: {
ollama: { baseURL: "http://localhost:11434" },
},
},
}
国内用户:接入国产大模型的推荐方案
国内网络环境下,直接调用 OpenAI / Anthropic 原生 API 可能存在延迟或连通性问题。以下是两种主流方案:
方案 A:直接配置国产模型 API
OpenClaw 原生支持 DeepSeek、Kimi、GLM 等,无需中转:
{
agent: {
model: { primary: "deepseek/deepseek-v3" },
models: {
"deepseek/deepseek-v3": { alias: "DeepSeek V3" },
"moonshot/moonshot-v1-32k": { alias: "Kimi 32K" },
"zhipu/glm-4-plus": { alias: "GLM-4-Plus" },
},
},
}
方案 B:通过统一 API 网关同时接入多家模型
国内另一种常见做法是使用聚合 API 网关,用一个 API Key、一个 baseURL 访问多家模型,省去为每个提供商单独申请和管理密钥的成本。
七牛云 AI 推理服务(portal.qiniu.com/ai-inference/api-key)同时兼容 OpenAI 和 Anthropic 两种 API 格式,支持 Claude、GPT、Gemini、DeepSeek、Kimi、MiniMax 等主流模型,国内直连无需代理。OpenClaw 配置示例如下:
{
agent: {
providers: {
// 替换 baseURL 和 apiKey,其余配置不变
openai: {
baseURL: "https://api.qnaigc.com/v1",
apiKey: "YOUR_QINIU_API_KEY",
},
},
model: { primary: "openai/claude-sonnet-4-6" },
// 同一个 Key 可自由切换以下所有模型
models: {
"openai/claude-sonnet-4-6": { alias: "Claude Sonnet" },
"openai/gpt-5.4": { alias: "GPT-5.4" },
"openai/gemini-3.0-flash": { alias: "Gemini Flash" },
"openai/deepseek-v3": { alias: "DeepSeek V3" },
"openai/moonshot-v1-32k": { alias: "Kimi 32K" },
"openai/abab6.5s": { alias: "MiniMax" },
},
},
}
这种方案的优势是:只需在七牛云申请一次 API Key,即可在 OpenClaw 中自由切换上述所有模型,不需要分别注册 Anthropic、OpenAI、Google 等多个海外账号。
三种方案对比
| 维度 | 方案 A:直接配置国产 API | 方案 B:七牛云聚合 API | 原生海外 API |
|---|---|---|---|
| 网络延迟 | 低(< 100ms) | 低(国内直连) | 可能受限 |
| 支持模型 | 国产模型为主 | Claude/GPT/Gemini/DeepSeek/Kimi/MiniMax 等 | 对应提供商模型 |
| 账号管理 | 每家单独申请 Key | 一个 Key 多模型 | 每家单独申请 |
| 中文理解 | 优秀 | 优秀 | 良好 |
| 合规性 | 满足国内要求 | 满足国内要求 | 需评估 |
零配置方案:Linclaw 桌面版
对于不熟悉命令行配置的用户,七牛云推出的 Linclaw 是 OpenClaw 的桌面封装版本,macOS/Windows 双击安装包即可使用,内置 DeepSeek、Kimi、GLM、MiniMax 一键接入,无需手动编辑配置文件,适合国内企业和非技术用户快速落地 AI 助手。
常见问题
Q:OpenClaw 切换模型后需要重启吗?
不需要。修改 models.json 后,下一次新建会话时自动使用新模型;使用 /model 命令切换则立即生效。
Q:OpenClaw 如何同时配置多个提供商的 API Key?
每个提供商的 Key 独立配置,互不影响。推荐通过 openclaw onboard 交互式向导一次性完成所有提供商的认证,也可以直接设置对应的环境变量(如 ANTHROPIC_API_KEY、OPENAI_API_KEY)。
Q:OpenClaw 免费模型有哪些?
通过 OpenRouter 可以访问部分免费模型(如 Meta Llama 3.3 70B Instruct Free);本地部署 Ollama 无调用费用,仅需承担本机算力;DeepSeek API 定价极低,[数据待核实:建议核查 DeepSeek 最新定价页面]。
Q:切换到 OpenRouter 如何配置?
OpenRouter 作为模型聚合平台,统一使用一个 API Key 访问 200+ 模型:
{
agent: {
providers: {
openrouter: {
apiKey: "YOUR_OPENROUTER_KEY",
},
},
model: { primary: "openrouter/meta-llama/llama-3.3-70b-instruct" },
},
}
Q:models.json 配置格式是 JSON 还是 JSON5?
OpenClaw 使用 JSON5 格式,支持注释(//)和末尾逗号,比标准 JSON 更易维护。配置文件路径默认为 ~/.openclaw/models.json。
小结
OpenClaw 的模型切换方案可归纳为三种路径:
- 即时切换:
/model命令,当前会话有效 - 永久配置:修改
~/.openclaw/models.json中的primary字段 - 智能降级:配置
fallbacks列表,实现主模型故障自动切换
OpenClaw 官方文档(docs.openclaw.ai)对各提供商的配置参数有详细说明,建议参考官方文档获取最新的模型名称格式。本文内容基于 2026 年 3 月数据,模型提供商的 API 格式和定价会持续更新,建议定期查阅各提供商官网核实。
延伸资源:
- OpenClaw 多模型对比测试:qiniu.com/ai/models
- OpenClaw 官方文档:docs.openclaw.ai/concepts/models

OpenClaw 支持通过修改 `models.json` 配置文件或使用 `/model` 命令,随时切换 OpenAI、Claude、Gemini、Ollama 等 30+ 家模型提供商的 API。切换无需重启,配置生效即时生效。
浙公网安备 33010602011771号