Skip to content
广告 · 本站推荐广告

NVIDIA

NVIDIA NIM 提供 GPU 加速的 AI 模型推理 API,支持多种开源和商业模型。

获取 API Key

  1. 前往 NVIDIA Build 注册账号
  2. 创建 API Key
  3. 复制 API Key

配置 OpenClaw

bash
openclaw models auth login --provider nvidia
# 按提示输入 API Key

或手动编辑配置文件:

jsonc
// ~/.openclaw/config.json
{
  "models": {
    "providers": {
      "nvidia": {
        "apiKey": "nvapi-xxxxxxxxxxxxxxxxxxxxxxxx",
        "baseUrl": "https://integrate.api.nvidia.com/v1"
      }
    }
  }
}

支持的模型

模型 ID说明
meta/llama-3.1-405b-instructLlama 3.1 405B,最强开源模型
meta/llama-3.1-70b-instructLlama 3.1 70B
mistralai/mistral-large-2-instructMistral Large 2
google/gemma-2-27b-itGemma 2 27B
nvidia/nemotron-4-340b-instructNVIDIA 自研模型

使用示例:

bash
openclaw models default set nvidia/meta/llama-3.1-70b-instruct
openclaw chat "请解释 Transformer 架构的工作原理"

环境变量

bash
export NVIDIA_API_KEY="nvapi-xxxxxxxxxxxxxxxxxxxxxxxx"

特色功能

GPU 加速推理

NVIDIA NIM 利用 GPU 集群提供极低延迟的模型推理,适合对响应速度有要求的场景。

开源模型托管

NIM 平台托管了大量开源模型,可以通过统一 API 访问。

故障排查

API Key 无效

  • 确认 API Key 以 nvapi- 开头
  • 检查 Key 是否过期

模型不可用

  • 部分模型可能需要特定的访问权限
  • 检查 NVIDIA Build 控制台中的模型状态

🇨🇳 中国用户须知

  • 网络代理:NVIDIA API 需要从中国大陆配置代理访问
    bash
    export HTTPS_PROXY="http://127.0.0.1:7890"
  • 替代方案:NVIDIA NIM 上的模型大多为开源模型,可以通过 OllamavLLM 在本地运行

基于MIT协议开源 | 内容翻译自 官方文档,同步更新