初始化概览
OpenClaw 提供多种初始化路径,具体取决于你的 Gateway(网关)运行位置和操作系统。本页帮助你快速找到适合的初始化方式。
初始化路径一览
| 路径 | 平台 | Gateway 位置 | 难度 | 推荐人群 |
|---|---|---|---|---|
| CLI 引导向导 | macOS / Linux / Windows (WSL2) | 本地 | ⭐ 简单 | 所有用户 |
| macOS 应用引导 | macOS | 本地 | ⭐ 最简单 | macOS 用户 |
| 自定义 Provider | 所有平台 | 本地或远程 | ⭐⭐ 中等 | 使用非官方模型的用户 |
CLI 引导向导
推荐方式
CLI 引导向导是跨平台通用的初始化方式,适用于所有支持的操作系统。
bash
openclaw onboard适用于:
- macOS — 命令行偏好用户
- Linux — 所有主流发行版
- Windows (WSL2) — 通过 Windows Subsystem for Linux 2 运行
向导会引导你完成模型配置、Gateway 启动、渠道接入等所有步骤。详见 引导向导(CLI)。
macOS 应用引导
macOS 应用提供图形化的引导流程,适合不熟悉命令行的用户:
- 安装 macOS 应用
- 首次启动时自动进入引导
- 图形界面逐步引导权限授权和配置
详见 初始化(macOS 应用)。
自定义 Provider(模型提供商)
如果你使用的模型端点不在 OpenClaw 预置列表中,可以通过自定义 Provider 接入。
OpenAI-compatible(兼容 OpenAI API 的端点)
适用于所有提供 OpenAI 兼容 API 的服务,包括:
- DeepSeek
- 通义千问(Qwen)
- Kimi(Moonshot AI)
- 文心一言(ERNIE)
- vLLM / Ollama 本地部署
- 其他 OpenAI API 兼容服务
bash
openclaw onboard
# 在模型选择步骤中选择 "OpenAI-compatible"
# 输入自定义 API 端点和密钥配置示例:
json
{
"models": {
"default": "openai-compatible:deepseek-chat",
"providers": {
"openai-compatible": {
"baseUrl": "https://api.deepseek.com/v1",
"apiKey": "sk-..."
}
}
}
}Anthropic-compatible(兼容 Anthropic API 的端点)
适用于提供 Anthropic 兼容 API 的服务:
json
{
"models": {
"default": "anthropic-compatible:claude-3.5-sonnet",
"providers": {
"anthropic-compatible": {
"baseUrl": "https://your-proxy.example.com/v1",
"apiKey": "sk-..."
}
}
}
}Unknown / Auto-detect(自动检测)
如果你不确定端点的 API 兼容格式,可以选择 Auto-detect,OpenClaw 会自动发送探测请求来判断端点类型:
bash
openclaw onboard
# 选择 "Auto-detect"
# 输入端点 URL,OpenClaw 会自动检测 API 格式自动检测原理
OpenClaw 会向端点发送 OpenAI 格式和 Anthropic 格式的测试请求,根据响应格式自动判断。如果两种格式都无法匹配,会提示你手动选择。
Gateway(网关)运行位置
初始化路径还取决于你的 Gateway 运行在哪里:
本地运行
Gateway 运行在你的本机上,最简单的方式:
bash
# CLI 方式
openclaw gateway --port 18789
# 或通过向导自动配置
openclaw onboard --install-daemon远程运行
Gateway 运行在远程服务器上,本地客户端通过网络连接:
bash
# 在服务器上启动 Gateway
openclaw gateway --host 0.0.0.0 --port 18789
# 在本地客户端连接
openclaw connect --gateway ws://your-server:18789选择建议
你使用 macOS 吗?
│
┌───┴───┐
是 否
│ │
▼ ▼
想用图形界面? 你用 Linux / WSL2?
│ │
是 → macOS 应用 是 → CLI 向导
│ │
否 → CLI 向导 否 → 检查平台支持下一步
引导向导(CLI)CLI 向导完整参考
→macOS 应用初始化macOS 应用首次运行流程
→安装配置高级安装选项和源码构建
→🇨🇳 中国用户须知
- 自定义 Provider 是国内用户接入国产模型的主要方式,详细配置参见 国产模型配置
- 推荐使用 OpenAI-compatible 模式接入 DeepSeek(性价比极高)和通义千问
- 如果你使用 Ollama 在本地运行开源模型,端点地址通常为
http://localhost:11434/v1
