Skip to content

OpenClaw 配置指南

本文档详细介绍如何在 OpenClaw 中配置白山智算平台作为自定义供应商,实现与 OpenAI 协议兼容的 API 调用。


1. 概述

OpenClaw(又称 OpenCrew、龙虾)是一款开源的 AI 编程助手,支持多种大语言模型接入。通过配置自定义供应商,您可以接入白山智算平台,享受稳定、高效的 AI 推理服务。

为什么选择白山智算?

  • OpenAI 兼容:完全兼容 OpenAI API 格式,迁移成本低
  • 多模型支持:支持数十种大语言模型,包括推理、代码生成等
  • 高性价比:灵活的计费方式,支持缓存计费节省成本
  • 稳定可靠:企业级服务保障,高可用架构

2. 配置前提

在开始配置之前,请确保:

  1. 已注册白山智算平台账号
  2. 已获取 API Key(登录控制台 > 个人中心 > API密钥)
  3. 已安装 OpenClaw 最新版本

3. 配置步骤

3.1 打开配置界面

  1. 启动 OpenClaw 应用
  2. 进入 Settings(设置)Preferences(偏好设置)
  3. 找到 Providers(供应商)Model Settings(模型设置) 选项
  4. 点击 Add Custom Provider(添加自定义供应商)

3.2 配置自定义供应商

根据 OpenClaw 的版本不同,配置方式可能略有差异。以下是通用的配置方法:

方式一:通过配置文件

找到 OpenClaw 的配置文件(通常位于用户目录下的 .openclawopenclaw 文件夹),编辑 providers.yamlconfig.json 文件:

yaml
# providers.yaml 示例
providers:
  - name: "白山智算"
    type: "openai"  # 使用 OpenAI 兼容协议
    base_url: "https://api.edgefn.net/v1"
    api_key: "YOUR_API_KEY"  # 替换为您的 API Key
    models:
      - id: "MIniMax-M2.5"
        name: "MiniMax M2.5"
      - id: "DeepSeek-R1-0528"
        name: "DeepSeek R1"
      - id: "Qwen3-32B-FP8"
        name: "Qwen3 32B"
    default_model: "MIniMax-M2.5"

方式二:图形界面配置

在添加自定义供应商的界面中,填写以下信息:

配置项说明
Provider Name白山智算供应商显示名称,可自定义
API TypeOpenAI Compatible选择 OpenAI 兼容协议
Base URLhttps://api.edgefn.net/v1白山智算 API 端点
API Keysk-xxx...您的白山智算 API Key
Models详见下方模型列表可用模型列表

3.3 选择模型

配置完成后,在模型列表中选择您要使用的模型。建议配置:

推荐模型

模型名称适用场景特点
MiniMax-M2.5通用对话、代码生成推荐首选,性能优异
GLM-5复杂推理、逻辑分析强大的推理能力

其他可用模型

  • Qwen3-Coder-480B-A35B-Instruct(代码专用)
  • DeepSeek-V3
  • GLM-4.6

4. 配置示例图

4.1 配置文件位置

用户目录/
└── .openclaw/
    ├── config.yaml
    └── providers.yaml

4.2 图形界面配置

┌─────────────────────────────────────────────────────┐
│  Add Custom Provider                                │
├─────────────────────────────────────────────────────┤
│  Provider Name:  白山智算                            │
│                                                     │
│  API Type:      [OpenAI Compatible ▼]              │
│                                                     │
│  Base URL:      https://api.edgefn.net/v1          │
│                                                     │
│  API Key:       sk-xxxxxxxxxxxxxxxxxxxx             │
│                                                     │
│  Models:        MIniMax-M2.5                       │
│                 DeepSeek-R1-0528                   │
│                 Qwen3-32B-FP8                      │
│                                                     │
│  Default Model: [MIniMax-M2.5 ▼]                   │
│                                                     │
│                         [Save] [Cancel]             │
└─────────────────────────────────────────────────────┘

5. 验证配置

配置完成后,建议进行以下验证:

5.1 测试连接

在 OpenClaw 中发送一条简单的测试消息,确认配置生效:

User: 你好,请回复"配置成功"

Expected: "配置成功"

5.2 检查日志

如果连接失败,可以查看 OpenClaw 的日志文件,通常位于:

用户目录/.openclaw/logs/openclaw.log

常见错误及解决方案:

错误类型原因解决方案
401 UnauthorizedAPI Key 错误或过期检查 API Key 是否正确
404 Not FoundBase URL 错误确认 Base URL 为 https://api.edgefn.net/v1
Connection Timeout网络问题检查网络连接,尝试使用代理

6. 高级配置

6.1 设置默认模型

如果您希望始终使用白山智算的模型,可以在配置中设置默认模型:

yaml
providers:
  - name: "白山智算"
    type: "openai"
    base_url: "https://api.edgefn.net/v1"
    api_key: "YOUR_API_KEY"
    default_model: "MIniMax-M2.5"

6.2 配置多模型

您可以同时配置多个模型,在不同场景下切换使用:

yaml
providers:
  - name: "白山智算-推理"
    type: "openai"
    base_url: "https://api.edgefn.net/v1"
    api_key: "YOUR_API_KEY"
    default_model: "DeepSeek-R1-0528"

  - name: "白山智算-代码"
    type: "openai"
    base_url: "https://api.edgefn.net/v1"
    api_key: "YOUR_API_KEY"
    default_model: "Qwen3-Coder-480B-A35B-Instruct"

6.3 设置参数

部分 OpenClaw 版本支持传递额外参数:

yaml
providers:
  - name: "白山智算"
    type: "openai"
    base_url: "https://api.edgefn.net/v1"
    api_key: "YOUR_API_KEY"
    default_model: "MIniMax-M2.5"
    extra_params:
      temperature: 0.7
      max_tokens: 4096

7. 常见问题

Q1: 配置后无法连接怎么办?

  1. 确认 API Key 正确(检查是否有空格或多余字符)
  2. 确认 Base URL 为 https://api.edgefn.net/v1(注意是 /v1 结尾)
  3. 检查网络连接,尝试 ping api.edgefn.net
  4. 查看日志文件确认具体错误信息

Q2: 为什么响应很慢?

  1. 可能是首次请求,模型需要加载
  2. 检查网络延迟,尝试使用代理
  3. 选择更近的接入点(如果支持)
  4. 尝试使用更小的模型(如 8B 参数)

Q3: 如何切换不同模型?

在 OpenClaw 的模型选择器中,选择您配置的"白山智算"供应商,然后从下拉列表中选择所需模型。

Q4: MIniMax-M2.5 模型有哪些优势?

MIniMax-M2.5 是白山智算平台推荐的模型,具有:

  • 强大的对话和推理能力
  • 优秀的代码生成能力
  • 较快的响应速度
  • 性价比高

Q5: 如何查看 API 使用量?

登录白山智算控制台,进入"用量统计"页面,可以查看详细的 API 调用记录和费用明细。

Q6: 支持流式响应吗?

是的,白山智算 API 支持流式响应。OpenClaw 已内置支持,无需额外配置。


8. 相关链接


技术支持:如有问题,请在寻求技术支持频道留言,我们将尽快回复。 文档最后更新时间:2025-08-28

贵州白山云科技