Skip to content
广告 · 本站推荐广告

LiteLLM 统一网关

LiteLLM 是一个开源的 LLM API 统一网关(Unified Gateway),支持 100+ 模型提供商,提供统一的 OpenAI 兼容 API 格式。

安装 LiteLLM

pip 安装

bash
pip install litellm[proxy]

Docker 安装

bash
docker run -p 4000:4000 \
  -e OPENAI_API_KEY="sk-xxx" \
  -e ANTHROPIC_API_KEY="sk-ant-xxx" \
  ghcr.io/berriai/litellm:main-latest \
  --config /app/config.yaml

启动 LiteLLM Proxy

创建配置文件 litellm_config.yaml

yaml
model_list:
  - model_name: gpt-4o
    litellm_params:
      model: openai/gpt-4o
      api_key: sk-xxxxxxxx
  - model_name: claude-sonnet
    litellm_params:
      model: anthropic/claude-sonnet-4-20250514
      api_key: sk-ant-xxxxxxxx
  - model_name: deepseek
    litellm_params:
      model: deepseek/deepseek-chat
      api_key: sk-xxxxxxxx
      api_base: https://api.deepseek.com

启动代理:

bash
litellm --config litellm_config.yaml --port 4000

配置 OpenClaw

LiteLLM 提供 OpenAI 兼容 API,直接作为提供商接入:

jsonc
// ~/.openclaw/config.json
{
  "models": {
    "providers": {
      "litellm": {
        "baseUrl": "http://localhost:4000/v1",
        "apiKey": "sk-litellm-master-key"
      }
    }
  }
}
bash
openclaw models default set litellm/gpt-4o

功能特性

统一 API

所有模型通过统一的 OpenAI 格式 API 访问,简化接入。

负载均衡

同一模型可以配置多个提供商,自动负载均衡(Load Balancing)。

回退策略

主提供商不可用时,自动切换到备用(Fallback)。

费用追踪

内置 Token 用量和费用追踪功能。

速率限制

可为不同用户或 API Key 设置独立的速率限制(Rate Limiting)。

故障排查

代理启动失败

  • 检查配置文件格式是否正确
  • 确认所有 API Key 有效

模型路由错误

  • 确认 model_name 与 OpenClaw 中使用的模型名匹配
  • 检查 LiteLLM 日志

🇨🇳 中国用户须知

  • 自建代理:LiteLLM 可以部署在国内服务器上,作为统一的 AI API 代理
  • 混合架构:同时配置国内模型(DeepSeek、Qwen)和国际模型(OpenAI、Anthropic),LiteLLM 自动路由
  • 团队使用:适合团队内部共享 API Key,统一管理用量和成本

基于MIT协议开源 | 内容翻译自 官方文档,同步更新