Skip to content

Claude Code 配置指南

本文档详细介绍如何使用 ClaudeCodeRouter 在 Claude Code 中配置白山智算平台,实现与 OpenAI 协议兼容的 AI 推理服务。


1. 概述

Claude Code 是 Anthropic 推出的 AI 编程助手,默认使用 Anthropic 官方 API。然而,Anthropic 的 API 协议与 OpenAI 协议不兼容,直接使用白山智算平台会存在兼容性问题。

为什么需要转换?

  • 协议差异:Anthropic 使用 x-api-key 头部和不同的请求格式
  • 端点不同:Anthropic 使用 api.anthropic.com,白山使用 api.edgefn.net/v1
  • 消息格式:Anthropic 使用 messages API,但头部和认证方式不同

解决方案

使用本地网关工具 ClaudeCodeRouter 进行协议转换,将 Claude Code 的请求转换为 OpenAI 格式,再转发给白山智算平台。


2. ClaudeCodeRouter 简介

ClaudeCodeRouter 是一个强大的开源工具,可以将 Claude Code 请求路由到不同的模型,并自定义请求。

项目地址https://github.com/musistudio/claude-code-router

功能特点

  • 模型路由:根据需求将请求路由到不同的模型
  • 多提供商支持:支持 OpenAI、DeepSeek、Ollama 等多种模型提供商
  • 请求/响应转换:使用转换器为不同的提供商自定义请求和响应
  • 动态模型切换:在 Claude Code 中使用 /model 命令动态切换模型

3. 安装与配置

3.1 安装 ClaudeCodeRouter

首先,确保您已安装 Claude Code:

shell
npm install -g @anthropic-ai/claude-code

然后,安装 ClaudeCodeRouter:

shell
npm install -g @musistudio/claude-code-router

3.2 配置白山智算

创建并配置您的 ~/.claude-code-router/config.json 文件:

json
{
  "APIKEY": "your-secret-key",
  "LOG": true,
  "API_TIMEOUT_MS": 600000,
  "Providers": [
    {
      "name": "baishan",
      "api_base_url": "https://api.edgefn.net/v1/chat/completions",
      "api_key": "YOUR_API_KEY",
      "models": [
        "MIniMax-M2.5",
        "GLM-5",
      ],
      "transformer": {
        "use": ["maxtoken"],
        "MIniMax-M2.5": {
          "use": ["maxtoken", { "max_tokens": 65536 }]
        }
      }
    }
  ],
  "Router": {
    "default": "baishan,MIniMax-M2.5"
  }
}

配置项说明

配置项说明
APIKEY可选的认证密钥,设置后客户端请求需提供此密钥
LOG是否启用日志记录
Providers模型提供商配置数组
Providers[].name提供商名称(自定义)
Providers[].api_base_url白山智算 API 端点https://api.edgefn.net/v1/chat/completions
Providers[].api_key您的白山智算 API Key
Providers[].models可用模型列表
Router路由规则配置
Router.default默认使用的模型,格式为 提供商名称,模型名称

3.3 推荐模型配置

场景推荐模型Router 配置
通用对话MIniMax-M2.5default: "baishan,MIniMax-M2.5"

4. 启动与使用

4.1 启动 ClaudeCodeRouter

shell
# 启动服务
ccr start

# 或者直接使用 router 运行 Claude Code
ccr code

4.2 使用 UI 模式配置

shell
ccr ui

这将打开一个基于 Web 的界面,您可以在其中轻松查看和编辑配置文件。

4.3 使用 CLI 模型管理

shell
ccr model

该命令提供交互式界面来查看和切换模型。


5. 验证配置

5.1 测试连接

确保 ClaudeCodeRouter 已启动后,使用 ccr code 启动 Claude Code,发送测试消息:

User: 你好,请回复"配置成功"

Expected: "配置成功"

5.2 动态切换模型

在 Claude Code 中可以使用 /model 命令动态切换模型:

/model baishan,DeepSeek-R1-0528

6. 常见问题排查

6.1 常见问题

问题原因解决方案
无法连接ClaudeCodeRouter 未启动运行 ccr start 启动服务
401 错误API Key 错误检查白山 API Key 是否正确
模型不可用模型名称错误检查 config.json 中的模型名称
响应很慢网络延迟检查网络或配置 PROXY_URL

6.2 查看日志

ClaudeCodeRouter 使用两个独立的日志系统:

  • 服务器日志:HTTP 请求记录在 ~/.claude-code-router/logs/ccr-*.log
  • 应用日志:路由决策记录在 ~/.claude-code-router/claude-code-router.log

6.3 重启服务

修改配置文件后,需要重启服务使配置生效:

shell
ccr restart

7. 高级配置

7.1 设置代理

如果网络需要代理,可以在配置中添加:

json
{
  "PROXY_URL": "http://127.0.0.1:7890"
}

7.2 多模型场景配置

json
{
  "Providers": [
    {
      "name": "baishan",
      "api_base_url": "https://api.edgefn.net/v1/chat/completions",
      "api_key": "YOUR_API_KEY",
      "models": [
        "MIniMax-M2.5",
        "DeepSeek-R1-0528",
        "DeepSeek-V3",
        "Qwen3-235B-A22B",
        "GLM-4.5"
      ]
    }
  ],
  "Router": {
    "default": "baishan,MIniMax-M2.5",
    "think": "baishan,DeepSeek-R1-0528",
    "background": "baishan,Qwen3-32B-FP8"
  }
}

7.3 Transformer 配置

ClaudeCodeRouter 支持多种转换器来处理请求和响应:

json
{
  "transformer": {
    "use": ["maxtoken"],
    "MIniMax-M2.5": {
      "use": [
        ["maxtoken", { "max_tokens": 65536 }],
        "enhancetool"
      ]
    }
  }
}

8. 注意事项

8.1 安全性

  • API Key 存储在本地配置文件 ~/.claude-code-router/config.json
  • 所有请求通过本地网关转发,不会泄露到第三方
  • 建议设置 APIKEY 来保护本地网关

8.2 性能

  • 本地网关会引入少量延迟(通常 < 50ms)
  • 首次请求可能较慢(模型加载)
  • 可以使用 ccr start 后台运行保持服务持续在线

8.3 兼容性

  • ClaudeCodeRouter 需要持续运行
  • 默认服务端口为 3456
  • 支持 Claude Code 的所有主流功能

9. 常见问题

Q1: 为什么不能直接配置白山智算?

Claude Code 默认使用 Anthropic 协议,与白山智算的 OpenAI 协议不兼容。需要通过 ClaudeCodeRouter 进行协议转换。

Q2: ClaudeCodeRouter 安全吗?

ClaudeCodeRouter 是开源工具(MIT 许可证),运行在本地,所有数据都经过本地处理,不会泄露到第三方。您可以自行审计代码:https://github.com/musistudio/claude-code-router

Q3: 可以使用其他网关工具吗?

可以,但 ClaudeCodeRouter 是专门为 Claude Code 设计的,支持模型路由、动态切换等功能,推荐使用。

Q4: MIniMax-M2.5 模型有哪些优势?

MIniMax-M2.5 是白山智算平台推荐的模型,具有:

  • 强大的对话和推理能力
  • 优秀的代码生成能力
  • 较快的响应速度
  • 性价比高

Q5: 如何查看 API 使用量?

登录白山智算控制台,进入"用量统计"页面,可以查看详细的 API 调用记录和费用明细。


10. 相关链接


技术支持:如有问题,请在寻求技术支持频道留言,我们将尽快回复。 文档最后更新时间:2025-08-28

贵州白山云科技