3/10/2026
深度解析 2026 年最火的开源 AI Agent 框架 OpenClaw 的两种部署方式——本地(搭配 Ollama)与云端(DigitalOcean/Railway)——含完整安装步骤、安全注意事项及本地 LLM 接入教程。
OpenClaw 部署完全指南:本地 vs 云端,哪种更适合你?
2026 年,OpenClaw 以惊人的速度积累了超过 10 万 GitHub Star,成为年度最受关注的开源 AI Agent 框架。与普通的 AI 聊天工具不同,OpenClaw 不只是"回答问题"——它能执行 Shell 命令、读写文件、控制浏览器,并与 Telegram、Discord、Slack 等即时通讯平台深度集成。
部署 OpenClaw 的第一个决策就是:本地部署还是云端部署?
本文用完整的步骤教程帮你搭起来,再用一张表帮你做选择。
OpenClaw 的核心能力
大多数 AI 工具止步于文本生成,OpenClaw 拥有系统级执行权限:
- 文件系统访问:读取、写入、管理本地文件
- Shell 执行:自主运行命令和脚本
- 浏览器控制:自动导航网页、填写表单、提取数据
- 跨会话记忆:不是单次对话,而是持续跟踪上下文
- Skills 生态:代码审查、数据分析、IM 机器人等可扩展插件
- 多平台集成:原生支持 Telegram、Discord、Slack、WhatsApp
⚠️ 安全提示:正因为 OpenClaw 有系统级访问权限,安全专家明确建议不要在你的主力电脑上直接运行它。请使用专用机器或做好容器隔离的云服务器。
前置条件
无论哪种部署方式,都需要:
- Node.js 22 或更高版本(用
node --version检查) - 至少 4GB 内存(若跑本地 LLM 建议 16GB 以上)
- 稳定的网络(调用云端 API)或性能够用的 GPU(跑本地 LLM)
方案一:本地部署
把 OpenClaw 跑在自己的硬件上——Mac mini、家用服务器、树莓派或工作站——可以获得完全的隐私保护、零持续成本,以及对每个配置细节的绝对控制。
第一步:安装 OpenClaw
官方一键安装脚本是最快的方式:
macOS / Linux / WSL2:
curl -fsSL https://openclaw.ai/install.sh | bash
Windows(PowerShell):
iwr -useb https://openclaw.ai/install.ps1 | iex
脚本会自动检测 Node.js 版本、安装 CLI,并启动配置向导。
也可以用 npm 手动安装:
npm install -g openclaw@latest
openclaw onboard --install-daemon
第二步:接入语言模型
OpenClaw 需要一个"大脑"来驱动推理。有两种接法:
方案 A:云端 API(Claude / GPT)
编辑 ~/.openclaw/.env:
ANTHROPIC_API_KEY=你的密钥
OPENAI_API_KEY=你的密钥
方案 B:本地 LLM(Ollama,完全离线)
先安装 Ollama 并拉取支持工具调用的模型:
# 安装 Ollama:https://ollama.ai
ollama pull llama3.3 # 通用推理
ollama pull qwen3.5:9b # 高性价比首选
ollama pull qwen2.5-coder:32b # 代码专项
配置 OpenClaw 连接到 Ollama:
# Ollama 不需要真实 Key,随便填一个占位符即可
openclaw config set models.providers.ollama.apiKey "ollama-local"
运行配置向导,自动检测本地模型:
openclaw onboard
或手动编辑 ~/.openclaw/openclaw.json:
{
"agents": {
"defaults": {
"model": {
"primary": "ollama/qwen3.5:9b",
"fallbacks": ["ollama/llama3.3"]
}
}
}
}
第三步:启动 Gateway
openclaw gateway
Gateway 默认运行在 ws://127.0.0.1:18789。用浏览器打开 http://127.0.0.1:18789 即可进入控制面板。
第四步:验证配置
# 查看 OpenClaw 识别到的模型
openclaw models list
# 查看已安装的 Ollama 模型
ollama list
方案二:云端部署
云端部署以部分定制性换取速度和安全性。主流平台提供一键部署模板,5 分钟内上线。
DigitalOcean(推荐)
- 进入 DigitalOcean Marketplace,搜索"OpenClaw"
- 选择 Droplet 配置(建议 $24/月或以上)
- 等待 2-3 分钟初始化完成
- 访问
http://服务器IP:18789进入控制面板 - 在服务器上获取 Gateway Token 用于认证:
cat ~/.openclaw/gateway-token
将 Token 粘贴到控制面板的 Settings 中完成认证。
DigitalOcean 镜像预置了多层安全防护:
- Gateway Token 认证,防止未授权访问
- 防火墙规则 + 端口限速,抵御 DDoS
- 非 root 运行,限制 Agent 的系统权限
- Docker 容器隔离,防止命令逃逸
Railway / Vultr
两个平台均提供 OpenClaw 一键部署模板,流程相似:选择套餐 → 部署 → 配置 API Key → 完成。
Docker(任意云服务器或 VPS)
# 一行安装
bash <(curl -fsSL https://raw.githubusercontent.com/phioranex/openclaw-docker/main/install.sh)
# 配置 API Key
nano ~/.openclaw/.env
# 启动服务
cd ~/.openclaw
docker compose up -d openclaw-gateway
本地 vs 云端:全维度对比
| 维度 | 云端部署 | 本地部署 | |------|--------|--------| | 启动速度 | ~5 分钟 | 30 分钟以上 | | 安全加固 | 平台内置,开箱即用 | 需手动配置 | | 数据隔离 | 自然隔离(独立服务器) | 需额外容器配置 | | 定制灵活性 | 受平台限制 | 完全自由 | | 成本模型 | $24+/月持续付费 | 一次性硬件投入 | | 离线能力 | 不支持 | 搭配 Ollama 可离线 | | 运维负担 | 平台托管,零维护 | 自行维护 | | 数据隐私 | 数据存于云服务商 | 数据完全留在本地 |
选云端,如果你:
- 想在 5 分钟内跑起来,不想折腾环境
- 需要将 AI Agent 与个人数据隔离,避免风险
- 需要团队多人使用或 7×24 稳定在线
- 没有闲置硬件,也不想承担运维工作
选本地,如果你:
- 数据隐私是硬性要求,数据不能离开本地网络
- 想搭配 Ollama 跑本地 LLM,彻底消除 API 费用
- 是开发者,想深度定制或研究 OpenClaw 源码
- 手头有闲置硬件(Mac mini、NAS、老台式机)
典型应用场景
自动化代码审查
"遍历 src/components 下所有 .tsx 文件,检查 useEffect
是否有缺失的依赖项,将风险点汇总到 review_report.md。"
OpenClaw 读取文件、调用 LLM 分析、写入报告——全程本地,数据不出门。
远程指令中心(Telegram 集成)
配置好 Telegram 机器人集成后,在外出时从手机发消息:
"帮我检查一下家里 NAS 的磁盘剩余空间,
如果低于 10% 给我发个提醒。"
OpenClaw 在家里的服务器上执行 df -h,分析结果,通过 Telegram 回复报告。
低成本 AI 工作站(Mac Mini 方案)
用一台 Mac mini 跑 Qwen3.5-9B + OpenClaw,搭建出一套 AI 工作站——总成本低于一名初级员工的月薪,完全离线运行。
搭配 Qwen3.5 小模型使用
本地部署 OpenClaw 时,阿里最新发布的 Qwen3.5 系列是性价比最高的模型选择:
| 模型 | 适用场景 | 显存需求 | |------|---------|--------| | Qwen3.5-9B | 服务端任务、复杂推理 | ~8GB | | Qwen3.5-4B | 轻量级 Agent 核心 | ~4GB | | Qwen3.5-2B | 移动端/边缘设备 | ~2GB |
# 通过 Ollama 拉取 Qwen3.5
ollama pull qwen3.5:9b
# 配置 OpenClaw 使用该模型
openclaw config set agents.defaults.model.primary "ollama/qwen3.5:9b"
常见问题排查
Gateway 无法启动
# 检查 18789 端口是否被占用
lsof -i :18789
# 如需释放
kill -9 <PID>
Ollama 模型未被检测到
# 确认 Ollama 正在运行
curl http://localhost:11434/api/tags
# 如未运行,启动它
ollama serve
Node.js 版本过低
# 通过 nvm 安装 Node.js 22
nvm install 22
nvm use 22
小结
OpenClaw 代表了 AI 工具的一次重要进化:不只是对话,而是真正执行任务。无论选择云端的便捷与安全,还是本地的隐私与零成本,配置门槛都不高。
本地 + Ollama 的组合在 2026 年尤其值得尝试——Qwen3.5-9B 用 9B 的体积实现了 120B 量级的性能,一台 Mac mini 就能跑起来,私有 AI 工作站的经济账从未这么划算。
相关链接:
- 官方文档:docs.openclaw.ai
- Ollama:ollama.ai
- GitHub:github.com/openclaw/openclaw