mac傻瓜式的部署openclaw(附带ollama本地模型安装)
1.安装node
1.1 建议使用nvm,fnm安装node,本人喜欢fnm,速度快
# 以下两种方式任选一种 # brew安装 brew install fnm # 通用安装 curl -fsSL https://fnm.vercel.app/install | bash
1.2 安装node,因为openclaw要求最低node版本为22+
fnm install v22.22.1 fnm use v22.22.1 fnm alias v22.22.1 default
1.3 安装ollama
curl -fsSL https://ollama.com/install.sh | sh
1.4 ollama下载模型
ollama pull qwen3:8b
1.5 ollama运行模型
ollama run qwen3:8b
2.安装openclaw
# 以下安装方式任选一种 # 通过脚本安装 curl -fsSL https://openclaw.ai/install.sh | bash # 手动安装 npm install -g openclaw@latest

openclaw onboard










openclaw安装完成,打开web ui

将ollama部署的本地模型集成到openclaw里
# 启动ollama服务 ollama serve # 启动模型 ollama run 模型名称 # 使用ollama运行openclaw,可以将本地模型注入到openclaw里 ollama launch openclaw



浙公网安备 33010602011771号