最近英伟达悄悄发了一波大福利。
我发现他们的 NIM平台上,竟然可以直接免费调用 GLM-4.7 和 Minimax-M2.1 这两个重磅模型!
重点是:
❌ 不需要你有 RTX 5090 显卡
❌ 不需要复杂的本地 Docker 部署
✅ 只需要一个 API Key,直接由英伟达的云端算力通过 OpenAI 标准接口输出。
对于我们这种想在编辑器里快速集成 AI,或者做一些轻量级开发测试的朋友来说,这简直就是降维打击。今天就手把手带大家薅这把“显卡皇”的羊毛。
保姆级教程:3分钟搞定 API Key 整个过程非常丝滑,我实测下来大概只需要 3 分钟。
第一步:注册与登录 直接访问 NVIDIA NIM 的集成主页: 🔗 build.nvidia.com/explore/discover
如果你还没有英伟达账号,直接注册一个。建议优先使用邮箱注册,方便后续管理。

第二步:手机号验证 这是很多人担心卡住的地方。注册成功后,为了防止接口被滥用,英伟达会要求验证手机号。
不要因为看到是国外平台就劝退!中国大陆的 +86 手机号是完美支持的。
在验证页面直接选择 “China”,输入你的手机号,接收验证码即可。整个过程非常流畅,没有任何阻碍。验证通过后,你就正式拥有了免费调用 API 的权限。
第三步:获取 API Key 登录成功后,在模型列表中随便点开一个模型(虽然我们要用 GLM 或 Minimax,但 Key 是通用的,你点 DeepSeek-R1 或 Llama-3 进去也行)。
点击页面右上角的 “Get API Key”。
生成后,一定要点击 “View Code” 并没有立即复制,系统会为你生成一个以 nvapi- 开头的长密钥。
请务必第一时间保存好这个 Key,页面刷新后可能就看不到了。
实战配置:VSCode / Cursor 接入指南
拿到 Key 怎么用?最直接的场景当然是放在代码编辑器里辅助编程。以下是标准配置参数,适用于所有支持 OpenAI Compatible 协议的软件(如 VSCode 的各种 AI 插件、Cursor、沉浸式翻译等)。
配置参数抄作业:
API Provider: OpenAI Compatible
Base URL:
https://integrate.api.nvidia.com/v1
API Key: 填入你刚才申请的 nvapi-xxxx...
Model ID (模型名称):
如果你想用智谱:z-ai/glm4.7
如果你想用 Minimax:minimaxai/minimax-m2.1

为什么推荐这一波?
说实话,对于个人开发者、写代码辅助、或者日常润色文章来说,每分钟 40 次几乎等于无限畅用。除非你是想拿去跑批量数据清洗,否则根本触不到这个天花板。
建议大家趁着现在限制还没收紧,赶紧去申请一个 Key 备用。 这种大厂的羊毛,手慢无!
本文作者:88
本文链接:
版权声明:本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!