Claude Code Router(CCR)不仅支持魔搭社区,还可以对接英伟达 NVIDIA NIM(NVIDIA Inference Microservices)平台,接入上百款前沿大模型。NVIDIA NIM 提供了丰富的开源模型和商业模型接口,包括 Llama、Mistral、Phi 等系列,部分模型提供免费额度,国内访问稳定

本文将详细介绍如何配置 CCR 以使用英伟达 NIM 平台的模型,并补充说明如何同时使用国内 SOTA 模型(Kimi-k2.5、GLM-4.7、Minimax-2.1、Deepseek-v3.2 等)

打开网易新闻 查看精彩图片

准备工作1. 安装 Claude Code Router

如果你尚未安装 CCR,请先执行以下命令:

# 安装 Claude Code 官方客户端npm install -g @anthropic-ai/claude-code# 安装 Claude Code Routernpm install -g @musistudio/claude-code-router
2. 申请英伟达 NIM API 密钥

访问 NVIDIA NIM 平台:https://build.nvidia.com/models

  1. 注册/登录 NVIDIA 账号
  2. 选择需要使用的模型
  3. 获取 API Key(部分模型提供免费调用额度)
提示:首次使用建议选择有免费额度的模型进行测试,如 llama-3.1-405b-instruct、mistral-7b-instruct-v0.3 等。

打开网易新闻 查看精彩图片

⚙️ 配置步骤方式一:使用 UI 界面配置(推荐)

# 启动 Web UI 管理界面ccr ui

执行后会自动打开浏览器进入可视化配置界面(地址默认为 http://127.0.0.1:3456/ui/),然后按照以下步骤操作:

1. 添加英伟达 NIM Provider

在 UI 中点击「添加 Provider」,填写以下信息:

字段

示例

名称

Provider 标识符

nvidia-nim

API Base URL

NIM API 端点

https://integrate.api.nvidia.com/v1/chat/completions

API Key

你的英伟达 API Key

nvapi-xxxxx

模型

支持的模型列表

见下方模型列表

2. 配置路由规则

在 Router 设置中配置各项策略:

策略

使用场景

default

默认模型

普通对话和代码生成

think

复杂推理模型

需要深度思考的问题

longContext

长上下文模型

处理长文档或大量代码

方式二:手动编辑配置文件

创建或编辑配置文件 ~/.claude-code-router/config.json:

{"Providers": ["name": "nvidia","api_base_url": "https://integrate.api.nvidia.com/v1/chat/completions","api_key": "你的英伟达API-Key","models": ["minimaxai/minimax-m2.1","z-ai/glm4.7","moonshotai/kimi-k2.5"],"transformer": {"use": ["openrouter"]],"Router": {"default": "nvidia,minimaxai/minimax-m2.1","think": "nvidia,z-ai/glm4.7","longContext": "nvidia,moonshotai/kimi-k2.5"},"HOST": "127.0.0.1","LOG": true}
推荐理由:该配置精选了英伟达 NIM 平台上架的国内 SOTA 模型: minimax-m2.1:MiniMax 2.1,多模态能力强 z-ai/glm4.7:智谱 GLM-4.7,中文理解优秀 moonshotai/kimi-k2.5:月之暗面 Kimi K2.5,长上下文支持
推荐模型组合

打开网易新闻 查看精彩图片

国内 SOTA 模型(推荐 ✨)

英伟达 NIM 平台现已上架多款国内顶级模型,通过 CCR 可以直接使用:

模型

特点

推荐场景

minimaxai/minimax-m2.1

MiniMax 2.1,多模态能力出众

通用对话与代码

z-ai/glm4.7

智谱 GLM-4.7,中文理解优秀

中文编程任务

moonshotai/kimi-k2.5

月之暗面 Kimi K2.5,长上下文

长代码理解

英伟达 NIM 热门模型

模型

特点

推荐场景

meta/llama-3.1-405b-instruct

超大杯模型,推理能力强

复杂代码理解与生成

meta/llama-3.1-70b-instruct

性价比高,性能均衡

日常编程任务

nvidia/llama-3.1-nemotron-70b-instruct

英伟达优化版

通用对话与代码

mistralai/mistral-7b-instruct-v0.3

轻量快速

简单任务响应

启动与使用启动 CCR

# 命令行模式(日常使用)ccr code# 如果修改了配置,需要重启ccr restart

启动成功后,Claude Code 会自动连接到本地路由服务,你可以通过自然语言让 AI 帮助你完成编程任务。

查看可用模型

配置完成后,你可以在 UI 界面中查看所有已配置的模型及其状态。

常见问题1. API 调用失败怎么办?

  • 检查 API Key 是否正确
  • 确认模型名称是否与 NVIDIA NIM 提供的完全一致
  • 查看 CCR 日志排查问题(LOG: true 已启用)
2. 如何选择合适的模型?
  • 日常编程:使用 minimax-m2.1,性价比高
  • 复杂推理:使用 glm4.7,中文理解优秀
  • 长代码理解:使用 kimi-k2.5,长上下文支持
3. 如何同时使用国内外模型?

通过配置多个 Provider 实现组合使用。参考上方「方式二:手动编辑配置文件」部分,添加更多 Provider(如 modelscope、siliconflow 等)即可。

参考资源

  • NVIDIA NIM 官方文档:https://build.nvidia.com/docs
  • Claude Code Router GitHub:https://github.com/musistudio/claude-code-router

通过 Claude Code Router 接入英伟达 NIM 平台,你可以:

  1. 直接使用国内 SOTA 模型- Kimi-k2.5、GLM-4.7、Minimax-2.1 等
  2. 国际模型可选- Llama、Mistral 等开源模型
  3. 灵活路由配置- 根据任务类型选择最优模型
  4. 稳定国内访问- 通过英伟达 NIM 平台实现稳定访问

现在就按照本指南配置你的 CCR,开始使用英伟达 NIM 的强大模型吧!