LiteLLM 统一网关
LiteLLM 是一个开源的 LLM API 统一网关(Unified Gateway),支持 100+ 模型提供商,提供统一的 OpenAI 兼容 API 格式。
安装 LiteLLM
pip 安装
bash
pip install litellm[proxy]Docker 安装
bash
docker run -p 4000:4000 \
-e OPENAI_API_KEY="sk-xxx" \
-e ANTHROPIC_API_KEY="sk-ant-xxx" \
ghcr.io/berriai/litellm:main-latest \
--config /app/config.yaml启动 LiteLLM Proxy
创建配置文件 litellm_config.yaml:
yaml
model_list:
- model_name: gpt-4o
litellm_params:
model: openai/gpt-4o
api_key: sk-xxxxxxxx
- model_name: claude-sonnet
litellm_params:
model: anthropic/claude-sonnet-4-20250514
api_key: sk-ant-xxxxxxxx
- model_name: deepseek
litellm_params:
model: deepseek/deepseek-chat
api_key: sk-xxxxxxxx
api_base: https://api.deepseek.com启动代理:
bash
litellm --config litellm_config.yaml --port 4000配置 OpenClaw
LiteLLM 提供 OpenAI 兼容 API,直接作为提供商接入:
jsonc
// ~/.openclaw/config.json
{
"models": {
"providers": {
"litellm": {
"baseUrl": "http://localhost:4000/v1",
"apiKey": "sk-litellm-master-key"
}
}
}
}bash
openclaw models default set litellm/gpt-4o功能特性
统一 API
所有模型通过统一的 OpenAI 格式 API 访问,简化接入。
负载均衡
同一模型可以配置多个提供商,自动负载均衡(Load Balancing)。
回退策略
主提供商不可用时,自动切换到备用(Fallback)。
费用追踪
内置 Token 用量和费用追踪功能。
速率限制
可为不同用户或 API Key 设置独立的速率限制(Rate Limiting)。
故障排查
代理启动失败
- 检查配置文件格式是否正确
- 确认所有 API Key 有效
模型路由错误
- 确认
model_name与 OpenClaw 中使用的模型名匹配 - 检查 LiteLLM 日志
🇨🇳 中国用户须知
- 自建代理:LiteLLM 可以部署在国内服务器上,作为统一的 AI API 代理
- 混合架构:同时配置国内模型(DeepSeek、Qwen)和国际模型(OpenAI、Anthropic),LiteLLM 自动路由
- 团队使用:适合团队内部共享 API Key,统一管理用量和成本
