NVIDIA NIM 是什么
NVIDIA NIM(NVIDIA Inference Microservices)是英伟达推出的推理服务平台,提供多家厂商的 AI 模型 API。重点是:部分模型免费调用,包括智谱 GLM-4.7 和 MiniMax M2.1。
API 兼容 OpenAI 格式,意味着你现有的代码基本不用改。

3 步上手
第 1 步:注册 NVIDIA 账号
访问 NVIDIA Developer,用邮箱注册账号。已有账号直接登录。
第 2 步:获取 API Key
进入 NIM 模型目录 选择你要用的模型(比如 GLM-4 或 MiniMax M2.1) 点击 “Get API Key”,复制 nvapi- 开头的密钥第 3 步:调用模型
API 端点统一为:
https://integrate.api.nvidia.com/v1
Python 示例:
from openai import OpenAI client = OpenAI( base_url="https://integrate.api.nvidia.com/v1", api_key="nvapi-你的密钥" ) # 调用 GLM-4.7 response = client.chat.completions.create( model="zhipu-ai/glm4.7", # 或 thudm/glm-4 messages=[{"role": "user", "content": "你好"}], max_tokens=1024 ) print(response.choices[0].message.content)
调用 MiniMax M2.1:
response = client.chat.completions.create( model="minimaxai/minimax-m2.1", messages=[{"role": "user", "content": "写一首关于春天的诗"}], max_tokens=1024 )
可用模型
模型 Model ID 说明 GLM-4.7 zhipu-ai/glm4.7 或 thudm/glm-4 智谱最新模型 MiniMax M2.1 minimaxai/minimax-m2.1 MiniMax 大模型注意事项
API Key 格式都是 nvapi- 开头 免费额度有限,适合测试和小规模使用 响应速度取决于模型和网络状况 更多模型可在 NIM 目录 查看原文来源:Linux.do