NVIDIA
NVIDIA NIM 提供 GPU 加速的 AI 模型推理 API,支持多种开源和商业模型。
获取 API Key
- 前往 NVIDIA Build 注册账号
- 创建 API Key
- 复制 API Key
配置 OpenClaw
bash
openclaw models auth login --provider nvidia
# 按提示输入 API Key或手动编辑配置文件:
jsonc
// ~/.openclaw/config.json
{
"models": {
"providers": {
"nvidia": {
"apiKey": "nvapi-xxxxxxxxxxxxxxxxxxxxxxxx",
"baseUrl": "https://integrate.api.nvidia.com/v1"
}
}
}
}支持的模型
| 模型 ID | 说明 |
|---|---|
meta/llama-3.1-405b-instruct | Llama 3.1 405B,最强开源模型 |
meta/llama-3.1-70b-instruct | Llama 3.1 70B |
mistralai/mistral-large-2-instruct | Mistral Large 2 |
google/gemma-2-27b-it | Gemma 2 27B |
nvidia/nemotron-4-340b-instruct | NVIDIA 自研模型 |
使用示例:
bash
openclaw models default set nvidia/meta/llama-3.1-70b-instruct
openclaw chat "请解释 Transformer 架构的工作原理"环境变量
bash
export NVIDIA_API_KEY="nvapi-xxxxxxxxxxxxxxxxxxxxxxxx"特色功能
GPU 加速推理
NVIDIA NIM 利用 GPU 集群提供极低延迟的模型推理,适合对响应速度有要求的场景。
开源模型托管
NIM 平台托管了大量开源模型,可以通过统一 API 访问。
故障排查
API Key 无效
- 确认 API Key 以
nvapi-开头 - 检查 Key 是否过期
模型不可用
- 部分模型可能需要特定的访问权限
- 检查 NVIDIA Build 控制台中的模型状态
