mac傻瓜式的部署openclaw(附带ollama本地模型安装)

1.安装node

1.1 建议使用nvm,fnm安装node,本人喜欢fnm,速度快

# 以下两种方式任选一种
# brew安装
brew install fnm
# 通用安装
curl -fsSL https://fnm.vercel.app/install | bash

 1.2 安装node,因为openclaw要求最低node版本为22+

fnm install v22.22.1
fnm use v22.22.1
fnm alias v22.22.1 default

 1.3 安装ollama

curl -fsSL https://ollama.com/install.sh | sh

 1.4 ollama下载模型

ollama pull qwen3:8b

 1.5 ollama运行模型

ollama run qwen3:8b

 

2.安装openclaw

# 以下安装方式任选一种
# 通过脚本安装
curl -fsSL https://openclaw.ai/install.sh | bash
# 手动安装
npm install -g openclaw@latest

 

图片

 

openclaw onboard

 

图片

 

 

图片

 

图片

 

图片

 

图片

 

图片

 

图片

 

图片

 

图片

 

图片

 openclaw安装完成,打开web ui

图片

 

将ollama部署的本地模型集成到openclaw里

# 启动ollama服务
ollama serve
# 启动模型
ollama run 模型名称
# 使用ollama运行openclaw,可以将本地模型注入到openclaw里
ollama launch openclaw

 

图片

 

图片

 

posted @ 2026-03-08 16:20  NAVYSUMMER  阅读(429)  评论(0)    收藏  举报
交流群 编程书籍