Skip to content
广告 · 本站推荐广告

模型管理

Models(模型)是 Agent 的智能核心。OpenClaw 提供灵活的模型管理机制,支持多模型切换、按会话覆写和能力检测。

模型引用格式

所有模型使用 provider/model-name 格式引用:

provider/model-name
└──┬──┘ └───┬─────┘
   │        │
  提供商   模型名称

解析规则

模型引用按第一个斜杠分割。模型名称中可包含斜杠(如 azure/deployments/gpt-4o/chat)。

常用模型引用示例:

yaml
# OpenAI 系列
openai/gpt-4o
openai/gpt-4o-mini
openai/o1
openai/o3-mini

# Anthropic 系列
anthropic/claude-3-5-sonnet-20241022
anthropic/claude-3-opus-20240229

# Google 系列
google/gemini-2.0-flash
google/gemini-1.5-pro

# DeepSeek 系列
deepseek/deepseek-chat
deepseek/deepseek-coder

# 本地模型
ollama/llama3:70b
ollama/codellama:34b

默认模型

设置 Agent 的默认模型:

yaml
# Agent 配置
model: openai/gpt-4o

默认模型用于所有未显式指定模型的会话。

按会话覆写

可以为特定渠道或场景覆写模型设置:

yaml
model: openai/gpt-4o          # 默认模型

overrides:
  telegram:
    model: deepseek/deepseek-chat   # Telegram 使用 DeepSeek
  whatsapp:
    model: openai/gpt-4o-mini       # WhatsApp 使用轻量模型
yaml
model: openai/gpt-4o

overrides:
  users:
    admin_user:
      model: anthropic/claude-3-5-sonnet   # 管理员用高级模型
    basic_user:
      model: openai/gpt-4o-mini             # 普通用户用轻量模型

运行时切换

用户可以在对话中动态切换模型:

bash
# 切换当前会话的模型
/model deepseek/deepseek-chat

# 查看当前模型
/model

# 查看可用模型列表
/models

权限控制

模型切换可通过 Tool Policies 限制,防止用户使用高成本模型。

模型能力(Capabilities)

每个模型具有不同的能力集合:

能力说明示例模型
Vision(视觉)理解图片输入GPT-4o, Claude 3.5
Streaming(流式)支持流式输出大多数模型
Function Calling支持工具调用GPT-4o, Claude 3.5
JSON Mode结构化 JSON 输出GPT-4o, DeepSeek
Reasoning(推理)深度推理模式o1, o3
yaml
# 能力矩阵
models:
  openai/gpt-4o:
    vision: true
    streaming: true
    functionCalling: true
    jsonMode: true
    reasoning: false
    
  openai/o1:
    vision: true
    streaming: false        # o1 不支持流式
    functionCalling: true
    jsonMode: true
    reasoning: true          # 支持深度推理
    
  deepseek/deepseek-chat:
    vision: false            # 不支持图片
    streaming: true
    functionCalling: true
    jsonMode: true
    reasoning: false

能力匹配

当 Agent 尝试使用模型不支持的功能时(如向不支持视觉的模型发送图片),OpenClaw 会自动降级处理或报错。

Token 限制

每个模型有固定的 Token 限制:

yaml
tokenLimits:
  openai/gpt-4o:
    contextWindow: 128000     # 上下文窗口
    maxOutputTokens: 16384    # 最大输出 Token
    
  anthropic/claude-3-5-sonnet:
    contextWindow: 200000
    maxOutputTokens: 8192
    
  deepseek/deepseek-chat:
    contextWindow: 64000
    maxOutputTokens: 8192
    
  ollama/llama3:70b:
    contextWindow: 8192
    maxOutputTokens: 4096

Token 预算分配:

上下文窗口 = 系统提示词 + 对话历史 + 工具结果 + 预留输出空间
             └─────────────────┬───────────────────┘  └────┬────┘
                          输入 Token                  输出 Token

模型选择建议

场景推荐模型理由
通用对话openai/gpt-4o全能,性价比高
代码生成anthropic/claude-3-5-sonnet代码能力强
深度推理openai/o1专为复杂推理优化
高性价比deepseek/deepseek-chat性能优秀,价格低
快速响应groq/llama-3-70b推理速度极快
离线/隐私ollama/llama3:70b完全本地运行

🇨🇳 中国用户须知

  • DeepSeek 是国产首选,API 直连无需代理,中文能力强
  • 智谱 GLM-4 适合中文长文本理解场景
  • 通义千问 Qwen 在多模态任务上表现优秀
  • 建议在 Failover 链中混合使用国产和国际模型
  • 本地部署可使用 Ollama 运行开源模型

下一步

基于MIT协议开源 | 内容翻译自 官方文档,同步更新