Skip to content
广告 · 本站推荐广告

常见问题 (FAQ)

通用问题

OpenClaw 是什么?

OpenClaw 是一款开源的通用 AI 助手框架(AI Assistant Framework),支持多模型调度、多通道接入和自动化任务编排,帮助你构建和管理 AI 智能体(Agent)。

OpenClaw 是免费的吗?

OpenClaw 本身基于 MIT 协议(MIT License)完全免费开源。但使用云端模型(如 GPT-4、DeepSeek 等)会产生 API 调用费用,具体取决于你选择的模型提供商。

支持哪些操作系统?

  • Linux:Ubuntu 20.04+、CentOS 7+、Debian 11+(推荐)
  • macOS:12 Monterey 及以上
  • Windows:Windows 10+ 搭配 WSL2

安装相关

需要什么版本的 Node.js?

OpenClaw 要求 Node.js >= 18.0.0。推荐使用 LTS(长期支持)版本:

bash
# 检查 Node.js 版本
node --version

# 使用 nvm 安装推荐版本
nvm install 20
nvm use 20

Docker 部署和原生安装如何选择?

方式优点缺点推荐场景
Docker环境隔离、部署快速资源占用略高服务器部署、团队使用
原生安装资源占用低、调试方便依赖管理复杂开发调试、个人使用

需要多少磁盘空间?

  • 最小安装:约 500MB
  • 含本地模型缓存(Cache):2-10GB
  • 含完整日志和数据:预留 20GB 以上

模型相关

应该选择哪个模型?

推荐策略

日常使用选择性价比高的模型(如 DeepSeek V3),复杂推理任务使用高端模型(如 DeepSeek R1 或 GPT-4o),简单任务使用轻量模型降低成本。

有免费的模型可以用吗?

有以下几种免费方案:

  1. 本地开源模型:使用 Ollama 部署 Qwen2.5、Llama 等开源模型,完全免费
  2. 免费额度:大部分国产模型提供商都有免费试用额度
  3. 社区模型:部分社区提供免费共享的模型 API

可以使用本地模型吗?

可以。OpenClaw 支持通过 Ollama、LM Studio 等工具接入本地模型:

bash
# 配置 Ollama 本地模型
openclaw models add --provider ollama --endpoint http://localhost:11434 --model qwen2.5

通道(Channel)相关

可以同时连接多少个通道?

理论上没有硬性限制,取决于服务器资源。推荐配置:

  • 2C4G 服务器:3-5 个通道
  • 4C8G 服务器:10-15 个通道
  • 8C16G 服务器:30+ 个通道

可以同时使用多种通道吗?

可以。例如同时接入 Telegram(电报)、企业微信(WeCom)和钉钉(DingTalk),每个通道可以配置不同的 Agent 和模型。

性能相关

Agent 响应很慢怎么办?

  1. 检查模型响应时间:openclaw models test
  2. 检查网络延迟:openclaw doctor --network
  3. 启用响应缓存(Response Cache):减少重复请求
  4. 切换到更快的模型或使用 Streaming(流式输出)模式

内存占用过高?

bash
# 查看内存使用详情
openclaw status --memory

# 清理会话缓存
openclaw sessions prune --older-than 7d

# 限制最大内存
openclaw start --max-memory 512m

CPU 使用率过高?

通常由并发请求过多导致,可通过限流(Rate Limiting)解决:

yaml
# config.yaml
gateway:
  rateLimit:
    maxConcurrent: 5
    requestsPerMinute: 60

安全相关

我的数据安全吗?

OpenClaw 所有数据默认存储在你自己的服务器本地,不会发送到任何第三方。使用云端模型时,对话内容会发送到模型提供商的 API。

注意

使用云端模型时,对话内容会经过模型提供商的服务器。如有严格数据安全要求,请使用本地部署的开源模型。

数据存储在哪里?

默认存储路径为 ~/.openclaw/data/,可通过 OPENCLAW_HOME 环境变量自定义。

谁可以访问我的 OpenClaw 实例?

默认仅限本地访问。如果开放外网访问,建议配置认证(Authentication)和 HTTPS。

计费相关

API 调用费用如何计算?

按 Token(词元)用量计费,不同模型价格不同。可使用内置的用量统计:

bash
# 查看本月用量和费用估算
openclaw usage --month current

如何优化成本?

  1. 模型分级:简单任务用便宜模型,复杂任务才用高端模型
  2. 启用缓存:重复问题直接返回缓存结果
  3. Token 优化:精简 System Prompt(系统提示词),控制上下文长度
  4. 设置预算上限openclaw config set billing.monthlyLimit 100

🇨🇳 国内用户专属

国内推荐用哪个模型?

推荐 DeepSeek V3(性价比最高)或 Qwen-Max(阿里出品,稳定性好)。详见 国产模型选型

使用 OpenClaw 需要 VPN 吗?

不需要。如果只使用国产模型和国内通道(企业微信、钉钉、飞书),全程无需翻墙。仅在使用 Telegram、Slack 等海外通道或 OpenAI、Anthropic 等海外模型时需要代理。

国内推荐哪个云服务商?

  • 阿里云:生态最完善,文档丰富
  • 腾讯云:价格实惠,轻量服务器性价比高
  • 华为云:适合企业合规场景

详见 云服务成本对比

国内安装速度慢怎么办?

使用国内镜像源加速:

bash
# npm 镜像
npm config set registry https://registry.npmmirror.com

# Docker 镜像
docker pull registry.cn-hangzhou.aliyuncs.com/openclaw/openclaw:latest

更多网络配置详见 国内网络配置

基于MIT协议开源 | 内容翻译自 官方文档,同步更新