Skip to content
广告 · 本站推荐广告

本地私有部署

面向对 数据隐私 有严格要求的企业和团队。所有数据完全存储在本地,不依赖任何外部云服务,支持完全断网(Air-gapped)运行。


适用场景

  • 🏛️ 金融、医疗、政府等有合规要求的行业
  • 🔒 企业内部敏感数据处理(合同、财务、客户信息)
  • 🌐 无法连接公网的内网环境
  • 🏢 需要完全自主可控的团队

硬件要求

级别CPU内存磁盘GPU适用场景
个人 / 体验4 核8 GB100 GB SSD不需要个人使用,调用云端模型 API
小团队(5–20 人)8 核32 GB500 GB SSD推荐(RTX 3090 / 4090)团队协作 + 本地模型
企业级(20–100 人)16 核64 GB1 TB NVMe必须(A100 40G / A800)高并发 + 大参数模型
大规模(100+ 人)32+ 核128+ GB2+ TB NVMe多卡(A100×2+)多模型并行推理

GPU 说明

GPU 仅在运行 本地大模型(如 Ollama + Llama / Qwen)时需要。如果通过 API 调用云端模型(DeepSeek / 通义千问),则不需要 GPU。


离线安装包

下载离线部署包

在有网络的机器上下载:

bash
# 下载完整离线包(包含 Node.js + OpenClaw + 依赖)
wget https://cdn.jsdelivr.net/gh/openclaw/dist@main/openclaw-offline-linux-x64.tar.gz

# 下载校验文件
wget https://cdn.jsdelivr.net/gh/openclaw/dist@main/openclaw-offline-linux-x64.tar.gz.sha256

离线环境安装

将下载的文件通过 U 盘 / 内网传输到目标机器:

bash
# 校验完整性
sha256sum -c openclaw-offline-linux-x64.tar.gz.sha256

# 解压
tar xzf openclaw-offline-linux-x64.tar.gz -C /opt/

# 运行离线安装脚本
cd /opt/openclaw-offline
bash install-offline.sh

安装脚本会:

  1. 安装内置的 Node.js 22 二进制
  2. 安装 OpenClaw 及所有依赖(无需网络)
  3. 注册 systemd 服务
  4. 运行 openclaw doctor

完全断网(Air-gapped)部署

对于完全无法连接外部网络的环境:

步骤一:在联网机器上准备

bash
# 下载离线包
wget https://cdn.jsdelivr.net/gh/openclaw/dist@main/openclaw-offline-linux-x64.tar.gz

# 下载 Ollama 离线包(如需要本地模型)
wget https://github.com/ollama/ollama/releases/download/v0.5.0/ollama-linux-amd64.tgz

# 下载模型权重(以 Qwen2.5-7B 为例)
ollama pull qwen2.5:7b
# 模型文件位于 ~/.ollama/models/

# 打包所有文件
tar czf air-gapped-bundle.tar.gz \
  openclaw-offline-linux-x64.tar.gz \
  ollama-linux-amd64.tgz \
  ~/.ollama/models/

步骤二:传输到内网

通过物理介质(U 盘、移动硬盘)或内网文件传输系统传递。

步骤三:在目标机器上安装

bash
# 解压总包
tar xzf air-gapped-bundle.tar.gz

# 安装 OpenClaw
tar xzf openclaw-offline-linux-x64.tar.gz -C /opt/
cd /opt/openclaw-offline && bash install-offline.sh

# 安装 Ollama
tar xzf ollama-linux-amd64.tgz -C /usr/local/

# 恢复模型文件
mkdir -p ~/.ollama
tar xzf models.tar.gz -C ~/.ollama/

# 启动 Ollama
ollama serve &

# 启动 OpenClaw
openclaw start

本地模型设置(Ollama)

Ollama 是最简单的本地大模型运行方案。

推荐模型

模型参数量最低 GPU 显存推荐场景
qwen2.5:7b7B6 GB日常对话、轻量任务
qwen2.5:14b14B12 GB代码生成、复杂推理
qwen2.5:72b72B40 GB(A100)企业级高质量推理
deepseek-coder-v2:16b16B16 GB代码编写专用
llama3.1:8b8B8 GB英文任务

配置 OpenClaw 连接 Ollama

yaml
# ~/.openclaw/config/gateway.yaml
providers:
  - name: ollama-local
    type: ollama
    base_url: http://127.0.0.1:11434
    models:
      - qwen2.5:7b
      - qwen2.5:14b

在控制面板中验证连接:

bash
# 确认 Ollama 正在运行
curl http://127.0.0.1:11434/api/tags

数据备份策略

自动备份脚本

bash
#!/bin/bash
# /opt/openclaw/backup.sh
# 建议通过 cron 每日执行

BACKUP_DIR="/backup/openclaw/$(date +%Y%m%d)"
mkdir -p "$BACKUP_DIR"

# 备份配置与数据
tar czf "$BACKUP_DIR/openclaw-data.tar.gz" -C "$HOME" .openclaw

# 备份工作区
tar czf "$BACKUP_DIR/workspace.tar.gz" -C "$HOME" workspace

# 保留最近 30 天的备份
find /backup/openclaw -maxdepth 1 -mtime +30 -type d -exec rm -rf {} \;

echo "[$(date)] Backup completed: $BACKUP_DIR"

设置定时任务:

bash
# 每天凌晨 3 点自动备份
crontab -e
# 添加:
0 3 * * * /opt/openclaw/backup.sh >> /var/log/openclaw-backup.log 2>&1

备份内容说明

目录 / 文件内容重要性
~/.openclaw/db/SQLite 数据库(对话记录、Agent 配置)⭐⭐⭐ 关键
~/.openclaw/config/配置文件⭐⭐⭐ 关键
~/.openclaw/plugins/已安装插件⭐⭐ 重要
~/.openclaw/keys/加密密钥⭐⭐⭐ 关键
~/workspace/Agent 工作区文件⭐⭐ 按需

企业级安全加固

网络隔离

┌─────────────────────────────┐
│       内网 (10.0.0.0/8)     │
│                             │
│  ┌─────────┐  ┌──────────┐ │
│  │ OpenClaw│←→│  Ollama  │ │
│  │ Gateway │  │ (本地模型)│ │
│  └────┬────┘  └──────────┘ │
│       │                     │
│  ┌────┴────┐                │
│  │  Nginx  │                │
│  │(反向代理)│                │
│  └────┬────┘                │
│       │                     │
└───────┼─────────────────────┘

   内网用户访问

认证与权限

yaml
# ~/.openclaw/config/gateway.yaml
auth:
  type: api_key
  keys:
    - name: admin
      key: "your-admin-key"
      permissions: ["*"]
    - name: user-team-a
      key: "team-a-key"
      permissions: ["chat", "agent:read"]

审计日志

yaml
# ~/.openclaw/config/gateway.yaml
audit:
  enabled: true
  log_path: /var/log/openclaw/audit.log
  retention_days: 365

常见问题

没有 GPU 能运行本地模型吗?

可以,但速度会很慢。Ollama 支持纯 CPU 推理,7B 参数模型在 8 核 CPU 上每秒可生成约 5–10 个 Token。如果不急于实时响应,CPU 也能用。

推荐方案:本地部署 OpenClaw + 通过 API 调用 DeepSeek 等云端模型,既保证 Gateway 数据不出内网,又无需 GPU。

如何实现多节点高可用?
  1. 部署多个 Gateway 实例
  2. 使用 Nginx 或 HAProxy 做负载均衡
  3. 共享 NFS / Ceph 存储后端
  4. 使用 PostgreSQL 替代 SQLite 作为数据库

高可用方案详情请联系社区获取企业支持。

Windows Server 能部署吗?

可以。在 Windows Server 上:

powershell
iwr -useb https://openclaw.ai/install.ps1 | iex

但建议使用 Linux 以获得更好的性能和稳定性。


🇨🇳 中国用户须知

  • 合规建议:如果涉及个人信息处理(《个人信息保护法》),建议将 OpenClaw 部署在境内服务器,并确保模型推理也在境内完成
  • 国产 GPU 支持:Ollama 目前主要支持 NVIDIA GPU。国产 GPU(华为昇腾、海光 DCU)可通过 vLLM 或 TGI 部署模型,OpenClaw 通过 OpenAI 兼容 API 接入
  • 信创环境:如需在麒麟 OS / 统信 UOS 上部署,基本流程相同,部分依赖可能需要手动编译。欢迎在社区群中交流

基于MIT协议开源 | 内容翻译自 官方文档,同步更新