3/10/2026

深度解析 2026 年最火的开源 AI Agent 框架 OpenClaw 的两种部署方式——本地(搭配 Ollama)与云端(DigitalOcean/Railway)——含完整安装步骤、安全注意事项及本地 LLM 接入教程。

OpenClaw 部署完全指南:本地 vs 云端,哪种更适合你?

2026 年,OpenClaw 以惊人的速度积累了超过 10 万 GitHub Star,成为年度最受关注的开源 AI Agent 框架。与普通的 AI 聊天工具不同,OpenClaw 不只是"回答问题"——它能执行 Shell 命令、读写文件、控制浏览器,并与 Telegram、Discord、Slack 等即时通讯平台深度集成。

部署 OpenClaw 的第一个决策就是:本地部署还是云端部署?

本文用完整的步骤教程帮你搭起来,再用一张表帮你做选择。


OpenClaw 的核心能力

大多数 AI 工具止步于文本生成,OpenClaw 拥有系统级执行权限:

  • 文件系统访问:读取、写入、管理本地文件
  • Shell 执行:自主运行命令和脚本
  • 浏览器控制:自动导航网页、填写表单、提取数据
  • 跨会话记忆:不是单次对话,而是持续跟踪上下文
  • Skills 生态:代码审查、数据分析、IM 机器人等可扩展插件
  • 多平台集成:原生支持 Telegram、Discord、Slack、WhatsApp

⚠️ 安全提示:正因为 OpenClaw 有系统级访问权限,安全专家明确建议不要在你的主力电脑上直接运行它。请使用专用机器或做好容器隔离的云服务器。


前置条件

无论哪种部署方式,都需要:

  • Node.js 22 或更高版本(用 node --version 检查)
  • 至少 4GB 内存(若跑本地 LLM 建议 16GB 以上)
  • 稳定的网络(调用云端 API)或性能够用的 GPU(跑本地 LLM)

方案一:本地部署

把 OpenClaw 跑在自己的硬件上——Mac mini、家用服务器、树莓派或工作站——可以获得完全的隐私保护、零持续成本,以及对每个配置细节的绝对控制。

第一步:安装 OpenClaw

官方一键安装脚本是最快的方式:

macOS / Linux / WSL2:

curl -fsSL https://openclaw.ai/install.sh | bash

Windows(PowerShell):

iwr -useb https://openclaw.ai/install.ps1 | iex

脚本会自动检测 Node.js 版本、安装 CLI,并启动配置向导。

也可以用 npm 手动安装:

npm install -g openclaw@latest
openclaw onboard --install-daemon

第二步:接入语言模型

OpenClaw 需要一个"大脑"来驱动推理。有两种接法:

方案 A:云端 API(Claude / GPT)

编辑 ~/.openclaw/.env

ANTHROPIC_API_KEY=你的密钥
OPENAI_API_KEY=你的密钥

方案 B:本地 LLM(Ollama,完全离线)

先安装 Ollama 并拉取支持工具调用的模型:

# 安装 Ollama:https://ollama.ai
ollama pull llama3.3           # 通用推理
ollama pull qwen3.5:9b         # 高性价比首选
ollama pull qwen2.5-coder:32b  # 代码专项

配置 OpenClaw 连接到 Ollama:

# Ollama 不需要真实 Key,随便填一个占位符即可
openclaw config set models.providers.ollama.apiKey "ollama-local"

运行配置向导,自动检测本地模型:

openclaw onboard

或手动编辑 ~/.openclaw/openclaw.json

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama/qwen3.5:9b",
        "fallbacks": ["ollama/llama3.3"]
      }
    }
  }
}

第三步:启动 Gateway

openclaw gateway

Gateway 默认运行在 ws://127.0.0.1:18789。用浏览器打开 http://127.0.0.1:18789 即可进入控制面板。

第四步:验证配置

# 查看 OpenClaw 识别到的模型
openclaw models list

# 查看已安装的 Ollama 模型
ollama list

方案二:云端部署

云端部署以部分定制性换取速度和安全性。主流平台提供一键部署模板,5 分钟内上线。

DigitalOcean(推荐)

  1. 进入 DigitalOcean Marketplace,搜索"OpenClaw"
  2. 选择 Droplet 配置(建议 $24/月或以上)
  3. 等待 2-3 分钟初始化完成
  4. 访问 http://服务器IP:18789 进入控制面板
  5. 在服务器上获取 Gateway Token 用于认证:
cat ~/.openclaw/gateway-token

将 Token 粘贴到控制面板的 Settings 中完成认证。

DigitalOcean 镜像预置了多层安全防护:

  • Gateway Token 认证,防止未授权访问
  • 防火墙规则 + 端口限速,抵御 DDoS
  • 非 root 运行,限制 Agent 的系统权限
  • Docker 容器隔离,防止命令逃逸

Railway / Vultr

两个平台均提供 OpenClaw 一键部署模板,流程相似:选择套餐 → 部署 → 配置 API Key → 完成。

Docker(任意云服务器或 VPS)

# 一行安装
bash <(curl -fsSL https://raw.githubusercontent.com/phioranex/openclaw-docker/main/install.sh)

# 配置 API Key
nano ~/.openclaw/.env

# 启动服务
cd ~/.openclaw
docker compose up -d openclaw-gateway

本地 vs 云端:全维度对比

| 维度 | 云端部署 | 本地部署 | |------|--------|--------| | 启动速度 | ~5 分钟 | 30 分钟以上 | | 安全加固 | 平台内置,开箱即用 | 需手动配置 | | 数据隔离 | 自然隔离(独立服务器) | 需额外容器配置 | | 定制灵活性 | 受平台限制 | 完全自由 | | 成本模型 | $24+/月持续付费 | 一次性硬件投入 | | 离线能力 | 不支持 | 搭配 Ollama 可离线 | | 运维负担 | 平台托管,零维护 | 自行维护 | | 数据隐私 | 数据存于云服务商 | 数据完全留在本地 |

选云端,如果你:

  • 想在 5 分钟内跑起来,不想折腾环境
  • 需要将 AI Agent 与个人数据隔离,避免风险
  • 需要团队多人使用或 7×24 稳定在线
  • 没有闲置硬件,也不想承担运维工作

选本地,如果你:

  • 数据隐私是硬性要求,数据不能离开本地网络
  • 想搭配 Ollama 跑本地 LLM,彻底消除 API 费用
  • 是开发者,想深度定制或研究 OpenClaw 源码
  • 手头有闲置硬件(Mac mini、NAS、老台式机)

典型应用场景

自动化代码审查

"遍历 src/components 下所有 .tsx 文件,检查 useEffect
是否有缺失的依赖项,将风险点汇总到 review_report.md。"

OpenClaw 读取文件、调用 LLM 分析、写入报告——全程本地,数据不出门。

远程指令中心(Telegram 集成)

配置好 Telegram 机器人集成后,在外出时从手机发消息:

"帮我检查一下家里 NAS 的磁盘剩余空间,
如果低于 10% 给我发个提醒。"

OpenClaw 在家里的服务器上执行 df -h,分析结果,通过 Telegram 回复报告。

低成本 AI 工作站(Mac Mini 方案)

用一台 Mac mini 跑 Qwen3.5-9B + OpenClaw,搭建出一套 AI 工作站——总成本低于一名初级员工的月薪,完全离线运行。


搭配 Qwen3.5 小模型使用

本地部署 OpenClaw 时,阿里最新发布的 Qwen3.5 系列是性价比最高的模型选择:

| 模型 | 适用场景 | 显存需求 | |------|---------|--------| | Qwen3.5-9B | 服务端任务、复杂推理 | ~8GB | | Qwen3.5-4B | 轻量级 Agent 核心 | ~4GB | | Qwen3.5-2B | 移动端/边缘设备 | ~2GB |

# 通过 Ollama 拉取 Qwen3.5
ollama pull qwen3.5:9b

# 配置 OpenClaw 使用该模型
openclaw config set agents.defaults.model.primary "ollama/qwen3.5:9b"

常见问题排查

Gateway 无法启动

# 检查 18789 端口是否被占用
lsof -i :18789
# 如需释放
kill -9 <PID>

Ollama 模型未被检测到

# 确认 Ollama 正在运行
curl http://localhost:11434/api/tags
# 如未运行,启动它
ollama serve

Node.js 版本过低

# 通过 nvm 安装 Node.js 22
nvm install 22
nvm use 22

小结

OpenClaw 代表了 AI 工具的一次重要进化:不只是对话,而是真正执行任务。无论选择云端的便捷与安全,还是本地的隐私与零成本,配置门槛都不高。

本地 + Ollama 的组合在 2026 年尤其值得尝试——Qwen3.5-9B 用 9B 的体积实现了 120B 量级的性能,一台 Mac mini 就能跑起来,私有 AI 工作站的经济账从未这么划算。

相关链接: