本地私有部署
面向对 数据隐私 有严格要求的企业和团队。所有数据完全存储在本地,不依赖任何外部云服务,支持完全断网(Air-gapped)运行。
适用场景
- 🏛️ 金融、医疗、政府等有合规要求的行业
- 🔒 企业内部敏感数据处理(合同、财务、客户信息)
- 🌐 无法连接公网的内网环境
- 🏢 需要完全自主可控的团队
硬件要求
| 级别 | CPU | 内存 | 磁盘 | GPU | 适用场景 |
|---|---|---|---|---|---|
| 个人 / 体验 | 4 核 | 8 GB | 100 GB SSD | 不需要 | 个人使用,调用云端模型 API |
| 小团队(5–20 人) | 8 核 | 32 GB | 500 GB SSD | 推荐(RTX 3090 / 4090) | 团队协作 + 本地模型 |
| 企业级(20–100 人) | 16 核 | 64 GB | 1 TB NVMe | 必须(A100 40G / A800) | 高并发 + 大参数模型 |
| 大规模(100+ 人) | 32+ 核 | 128+ GB | 2+ TB NVMe | 多卡(A100×2+) | 多模型并行推理 |
GPU 说明
GPU 仅在运行 本地大模型(如 Ollama + Llama / Qwen)时需要。如果通过 API 调用云端模型(DeepSeek / 通义千问),则不需要 GPU。
离线安装包
下载离线部署包
在有网络的机器上下载:
bash
# 下载完整离线包(包含 Node.js + OpenClaw + 依赖)
wget https://cdn.jsdelivr.net/gh/openclaw/dist@main/openclaw-offline-linux-x64.tar.gz
# 下载校验文件
wget https://cdn.jsdelivr.net/gh/openclaw/dist@main/openclaw-offline-linux-x64.tar.gz.sha256离线环境安装
将下载的文件通过 U 盘 / 内网传输到目标机器:
bash
# 校验完整性
sha256sum -c openclaw-offline-linux-x64.tar.gz.sha256
# 解压
tar xzf openclaw-offline-linux-x64.tar.gz -C /opt/
# 运行离线安装脚本
cd /opt/openclaw-offline
bash install-offline.sh安装脚本会:
- 安装内置的 Node.js 22 二进制
- 安装 OpenClaw 及所有依赖(无需网络)
- 注册 systemd 服务
- 运行
openclaw doctor
完全断网(Air-gapped)部署
对于完全无法连接外部网络的环境:
步骤一:在联网机器上准备
bash
# 下载离线包
wget https://cdn.jsdelivr.net/gh/openclaw/dist@main/openclaw-offline-linux-x64.tar.gz
# 下载 Ollama 离线包(如需要本地模型)
wget https://github.com/ollama/ollama/releases/download/v0.5.0/ollama-linux-amd64.tgz
# 下载模型权重(以 Qwen2.5-7B 为例)
ollama pull qwen2.5:7b
# 模型文件位于 ~/.ollama/models/
# 打包所有文件
tar czf air-gapped-bundle.tar.gz \
openclaw-offline-linux-x64.tar.gz \
ollama-linux-amd64.tgz \
~/.ollama/models/步骤二:传输到内网
通过物理介质(U 盘、移动硬盘)或内网文件传输系统传递。
步骤三:在目标机器上安装
bash
# 解压总包
tar xzf air-gapped-bundle.tar.gz
# 安装 OpenClaw
tar xzf openclaw-offline-linux-x64.tar.gz -C /opt/
cd /opt/openclaw-offline && bash install-offline.sh
# 安装 Ollama
tar xzf ollama-linux-amd64.tgz -C /usr/local/
# 恢复模型文件
mkdir -p ~/.ollama
tar xzf models.tar.gz -C ~/.ollama/
# 启动 Ollama
ollama serve &
# 启动 OpenClaw
openclaw start本地模型设置(Ollama)
Ollama 是最简单的本地大模型运行方案。
推荐模型
| 模型 | 参数量 | 最低 GPU 显存 | 推荐场景 |
|---|---|---|---|
| qwen2.5:7b | 7B | 6 GB | 日常对话、轻量任务 |
| qwen2.5:14b | 14B | 12 GB | 代码生成、复杂推理 |
| qwen2.5:72b | 72B | 40 GB(A100) | 企业级高质量推理 |
| deepseek-coder-v2:16b | 16B | 16 GB | 代码编写专用 |
| llama3.1:8b | 8B | 8 GB | 英文任务 |
配置 OpenClaw 连接 Ollama
yaml
# ~/.openclaw/config/gateway.yaml
providers:
- name: ollama-local
type: ollama
base_url: http://127.0.0.1:11434
models:
- qwen2.5:7b
- qwen2.5:14b在控制面板中验证连接:
bash
# 确认 Ollama 正在运行
curl http://127.0.0.1:11434/api/tags数据备份策略
自动备份脚本
bash
#!/bin/bash
# /opt/openclaw/backup.sh
# 建议通过 cron 每日执行
BACKUP_DIR="/backup/openclaw/$(date +%Y%m%d)"
mkdir -p "$BACKUP_DIR"
# 备份配置与数据
tar czf "$BACKUP_DIR/openclaw-data.tar.gz" -C "$HOME" .openclaw
# 备份工作区
tar czf "$BACKUP_DIR/workspace.tar.gz" -C "$HOME" workspace
# 保留最近 30 天的备份
find /backup/openclaw -maxdepth 1 -mtime +30 -type d -exec rm -rf {} \;
echo "[$(date)] Backup completed: $BACKUP_DIR"设置定时任务:
bash
# 每天凌晨 3 点自动备份
crontab -e
# 添加:
0 3 * * * /opt/openclaw/backup.sh >> /var/log/openclaw-backup.log 2>&1备份内容说明
| 目录 / 文件 | 内容 | 重要性 |
|---|---|---|
~/.openclaw/db/ | SQLite 数据库(对话记录、Agent 配置) | ⭐⭐⭐ 关键 |
~/.openclaw/config/ | 配置文件 | ⭐⭐⭐ 关键 |
~/.openclaw/plugins/ | 已安装插件 | ⭐⭐ 重要 |
~/.openclaw/keys/ | 加密密钥 | ⭐⭐⭐ 关键 |
~/workspace/ | Agent 工作区文件 | ⭐⭐ 按需 |
企业级安全加固
网络隔离
┌─────────────────────────────┐
│ 内网 (10.0.0.0/8) │
│ │
│ ┌─────────┐ ┌──────────┐ │
│ │ OpenClaw│←→│ Ollama │ │
│ │ Gateway │ │ (本地模型)│ │
│ └────┬────┘ └──────────┘ │
│ │ │
│ ┌────┴────┐ │
│ │ Nginx │ │
│ │(反向代理)│ │
│ └────┬────┘ │
│ │ │
└───────┼─────────────────────┘
│
内网用户访问认证与权限
yaml
# ~/.openclaw/config/gateway.yaml
auth:
type: api_key
keys:
- name: admin
key: "your-admin-key"
permissions: ["*"]
- name: user-team-a
key: "team-a-key"
permissions: ["chat", "agent:read"]审计日志
yaml
# ~/.openclaw/config/gateway.yaml
audit:
enabled: true
log_path: /var/log/openclaw/audit.log
retention_days: 365常见问题
没有 GPU 能运行本地模型吗?
可以,但速度会很慢。Ollama 支持纯 CPU 推理,7B 参数模型在 8 核 CPU 上每秒可生成约 5–10 个 Token。如果不急于实时响应,CPU 也能用。
推荐方案:本地部署 OpenClaw + 通过 API 调用 DeepSeek 等云端模型,既保证 Gateway 数据不出内网,又无需 GPU。
如何实现多节点高可用?
- 部署多个 Gateway 实例
- 使用 Nginx 或 HAProxy 做负载均衡
- 共享 NFS / Ceph 存储后端
- 使用 PostgreSQL 替代 SQLite 作为数据库
高可用方案详情请联系社区获取企业支持。
Windows Server 能部署吗?
可以。在 Windows Server 上:
powershell
iwr -useb https://openclaw.ai/install.ps1 | iex但建议使用 Linux 以获得更好的性能和稳定性。
🇨🇳 中国用户须知
- 合规建议:如果涉及个人信息处理(《个人信息保护法》),建议将 OpenClaw 部署在境内服务器,并确保模型推理也在境内完成
- 国产 GPU 支持:Ollama 目前主要支持 NVIDIA GPU。国产 GPU(华为昇腾、海光 DCU)可通过 vLLM 或 TGI 部署模型,OpenClaw 通过 OpenAI 兼容 API 接入
- 信创环境:如需在麒麟 OS / 统信 UOS 上部署,基本流程相同,部分依赖可能需要手动编译。欢迎在社区群中交流
