模型管理
Models(模型)是 Agent 的智能核心。OpenClaw 提供灵活的模型管理机制,支持多模型切换、按会话覆写和能力检测。
模型引用格式
所有模型使用 provider/model-name 格式引用:
provider/model-name
└──┬──┘ └───┬─────┘
│ │
提供商 模型名称解析规则
模型引用按第一个斜杠分割。模型名称中可包含斜杠(如 azure/deployments/gpt-4o/chat)。
常用模型引用示例:
yaml
# OpenAI 系列
openai/gpt-4o
openai/gpt-4o-mini
openai/o1
openai/o3-mini
# Anthropic 系列
anthropic/claude-3-5-sonnet-20241022
anthropic/claude-3-opus-20240229
# Google 系列
google/gemini-2.0-flash
google/gemini-1.5-pro
# DeepSeek 系列
deepseek/deepseek-chat
deepseek/deepseek-coder
# 本地模型
ollama/llama3:70b
ollama/codellama:34b默认模型
设置 Agent 的默认模型:
yaml
# Agent 配置
model: openai/gpt-4o默认模型用于所有未显式指定模型的会话。
按会话覆写
可以为特定渠道或场景覆写模型设置:
yaml
model: openai/gpt-4o # 默认模型
overrides:
telegram:
model: deepseek/deepseek-chat # Telegram 使用 DeepSeek
whatsapp:
model: openai/gpt-4o-mini # WhatsApp 使用轻量模型yaml
model: openai/gpt-4o
overrides:
users:
admin_user:
model: anthropic/claude-3-5-sonnet # 管理员用高级模型
basic_user:
model: openai/gpt-4o-mini # 普通用户用轻量模型运行时切换
用户可以在对话中动态切换模型:
bash
# 切换当前会话的模型
/model deepseek/deepseek-chat
# 查看当前模型
/model
# 查看可用模型列表
/models权限控制
模型切换可通过 Tool Policies 限制,防止用户使用高成本模型。
模型能力(Capabilities)
每个模型具有不同的能力集合:
| 能力 | 说明 | 示例模型 |
|---|---|---|
| Vision(视觉) | 理解图片输入 | GPT-4o, Claude 3.5 |
| Streaming(流式) | 支持流式输出 | 大多数模型 |
| Function Calling | 支持工具调用 | GPT-4o, Claude 3.5 |
| JSON Mode | 结构化 JSON 输出 | GPT-4o, DeepSeek |
| Reasoning(推理) | 深度推理模式 | o1, o3 |
yaml
# 能力矩阵
models:
openai/gpt-4o:
vision: true
streaming: true
functionCalling: true
jsonMode: true
reasoning: false
openai/o1:
vision: true
streaming: false # o1 不支持流式
functionCalling: true
jsonMode: true
reasoning: true # 支持深度推理
deepseek/deepseek-chat:
vision: false # 不支持图片
streaming: true
functionCalling: true
jsonMode: true
reasoning: false能力匹配
当 Agent 尝试使用模型不支持的功能时(如向不支持视觉的模型发送图片),OpenClaw 会自动降级处理或报错。
Token 限制
每个模型有固定的 Token 限制:
yaml
tokenLimits:
openai/gpt-4o:
contextWindow: 128000 # 上下文窗口
maxOutputTokens: 16384 # 最大输出 Token
anthropic/claude-3-5-sonnet:
contextWindow: 200000
maxOutputTokens: 8192
deepseek/deepseek-chat:
contextWindow: 64000
maxOutputTokens: 8192
ollama/llama3:70b:
contextWindow: 8192
maxOutputTokens: 4096Token 预算分配:
上下文窗口 = 系统提示词 + 对话历史 + 工具结果 + 预留输出空间
└─────────────────┬───────────────────┘ └────┬────┘
输入 Token 输出 Token模型选择建议
| 场景 | 推荐模型 | 理由 |
|---|---|---|
| 通用对话 | openai/gpt-4o | 全能,性价比高 |
| 代码生成 | anthropic/claude-3-5-sonnet | 代码能力强 |
| 深度推理 | openai/o1 | 专为复杂推理优化 |
| 高性价比 | deepseek/deepseek-chat | 性能优秀,价格低 |
| 快速响应 | groq/llama-3-70b | 推理速度极快 |
| 离线/隐私 | ollama/llama3:70b | 完全本地运行 |
🇨🇳 中国用户须知
- DeepSeek 是国产首选,API 直连无需代理,中文能力强
- 智谱 GLM-4 适合中文长文本理解场景
- 通义千问 Qwen 在多模态任务上表现优秀
- 建议在 Failover 链中混合使用国产和国际模型
- 本地部署可使用 Ollama 运行开源模型
