OpenClaw 配置指南
本文档详细介绍如何在 OpenClaw 中配置白山智算平台作为自定义供应商,实现与 OpenAI 协议兼容的 API 调用。
1. 概述
OpenClaw(又称 OpenCrew、龙虾)是一款开源的 AI 编程助手,支持多种大语言模型接入。通过配置自定义供应商,您可以接入白山智算平台,享受稳定、高效的 AI 推理服务。
为什么选择白山智算?
- OpenAI 兼容:完全兼容 OpenAI API 格式,迁移成本低
- 多模型支持:支持数十种大语言模型,包括推理、代码生成等
- 高性价比:灵活的计费方式,支持缓存计费节省成本
- 稳定可靠:企业级服务保障,高可用架构
2. 配置前提
在开始配置之前,请确保:
- 已注册白山智算平台账号
- 已获取 API Key(登录控制台 > 个人中心 > API密钥)
- 已安装 OpenClaw 最新版本
3. 配置步骤
3.1 打开配置界面
- 启动 OpenClaw 应用
- 进入 Settings(设置) 或 Preferences(偏好设置)
- 找到 Providers(供应商) 或 Model Settings(模型设置) 选项
- 点击 Add Custom Provider(添加自定义供应商)
3.2 配置自定义供应商
根据 OpenClaw 的版本不同,配置方式可能略有差异。以下是通用的配置方法:
方式一:通过配置文件
找到 OpenClaw 的配置文件(通常位于用户目录下的 .openclaw 或 openclaw 文件夹),编辑 providers.yaml 或 config.json 文件:
yaml
# providers.yaml 示例
providers:
- name: "白山智算"
type: "openai" # 使用 OpenAI 兼容协议
base_url: "https://api.edgefn.net/v1"
api_key: "YOUR_API_KEY" # 替换为您的 API Key
models:
- id: "MIniMax-M2.5"
name: "MiniMax M2.5"
- id: "DeepSeek-R1-0528"
name: "DeepSeek R1"
- id: "Qwen3-32B-FP8"
name: "Qwen3 32B"
default_model: "MIniMax-M2.5"方式二:图形界面配置
在添加自定义供应商的界面中,填写以下信息:
| 配置项 | 值 | 说明 |
|---|---|---|
| Provider Name | 白山智算 | 供应商显示名称,可自定义 |
| API Type | OpenAI Compatible | 选择 OpenAI 兼容协议 |
| Base URL | https://api.edgefn.net/v1 | 白山智算 API 端点 |
| API Key | sk-xxx... | 您的白山智算 API Key |
| Models | 详见下方模型列表 | 可用模型列表 |
3.3 选择模型
配置完成后,在模型列表中选择您要使用的模型。建议配置:
推荐模型
| 模型名称 | 适用场景 | 特点 |
|---|---|---|
| MiniMax-M2.5 | 通用对话、代码生成 | 推荐首选,性能优异 |
| GLM-5 | 复杂推理、逻辑分析 | 强大的推理能力 |
其他可用模型
Qwen3-Coder-480B-A35B-Instruct(代码专用)DeepSeek-V3GLM-4.6
4. 配置示例图
4.1 配置文件位置
用户目录/
└── .openclaw/
├── config.yaml
└── providers.yaml4.2 图形界面配置
┌─────────────────────────────────────────────────────┐
│ Add Custom Provider │
├─────────────────────────────────────────────────────┤
│ Provider Name: 白山智算 │
│ │
│ API Type: [OpenAI Compatible ▼] │
│ │
│ Base URL: https://api.edgefn.net/v1 │
│ │
│ API Key: sk-xxxxxxxxxxxxxxxxxxxx │
│ │
│ Models: MIniMax-M2.5 │
│ DeepSeek-R1-0528 │
│ Qwen3-32B-FP8 │
│ │
│ Default Model: [MIniMax-M2.5 ▼] │
│ │
│ [Save] [Cancel] │
└─────────────────────────────────────────────────────┘5. 验证配置
配置完成后,建议进行以下验证:
5.1 测试连接
在 OpenClaw 中发送一条简单的测试消息,确认配置生效:
User: 你好,请回复"配置成功"
Expected: "配置成功"5.2 检查日志
如果连接失败,可以查看 OpenClaw 的日志文件,通常位于:
用户目录/.openclaw/logs/openclaw.log常见错误及解决方案:
| 错误类型 | 原因 | 解决方案 |
|---|---|---|
401 Unauthorized | API Key 错误或过期 | 检查 API Key 是否正确 |
404 Not Found | Base URL 错误 | 确认 Base URL 为 https://api.edgefn.net/v1 |
Connection Timeout | 网络问题 | 检查网络连接,尝试使用代理 |
6. 高级配置
6.1 设置默认模型
如果您希望始终使用白山智算的模型,可以在配置中设置默认模型:
yaml
providers:
- name: "白山智算"
type: "openai"
base_url: "https://api.edgefn.net/v1"
api_key: "YOUR_API_KEY"
default_model: "MIniMax-M2.5"6.2 配置多模型
您可以同时配置多个模型,在不同场景下切换使用:
yaml
providers:
- name: "白山智算-推理"
type: "openai"
base_url: "https://api.edgefn.net/v1"
api_key: "YOUR_API_KEY"
default_model: "DeepSeek-R1-0528"
- name: "白山智算-代码"
type: "openai"
base_url: "https://api.edgefn.net/v1"
api_key: "YOUR_API_KEY"
default_model: "Qwen3-Coder-480B-A35B-Instruct"6.3 设置参数
部分 OpenClaw 版本支持传递额外参数:
yaml
providers:
- name: "白山智算"
type: "openai"
base_url: "https://api.edgefn.net/v1"
api_key: "YOUR_API_KEY"
default_model: "MIniMax-M2.5"
extra_params:
temperature: 0.7
max_tokens: 40967. 常见问题
Q1: 配置后无法连接怎么办?
- 确认 API Key 正确(检查是否有空格或多余字符)
- 确认 Base URL 为
https://api.edgefn.net/v1(注意是/v1结尾) - 检查网络连接,尝试 ping
api.edgefn.net - 查看日志文件确认具体错误信息
Q2: 为什么响应很慢?
- 可能是首次请求,模型需要加载
- 检查网络延迟,尝试使用代理
- 选择更近的接入点(如果支持)
- 尝试使用更小的模型(如 8B 参数)
Q3: 如何切换不同模型?
在 OpenClaw 的模型选择器中,选择您配置的"白山智算"供应商,然后从下拉列表中选择所需模型。
Q4: MIniMax-M2.5 模型有哪些优势?
MIniMax-M2.5 是白山智算平台推荐的模型,具有:
- 强大的对话和推理能力
- 优秀的代码生成能力
- 较快的响应速度
- 性价比高
Q5: 如何查看 API 使用量?
登录白山智算控制台,进入"用量统计"页面,可以查看详细的 API 调用记录和费用明细。
Q6: 支持流式响应吗?
是的,白山智算 API 支持流式响应。OpenClaw 已内置支持,无需额外配置。
8. 相关链接
技术支持:如有问题,请在寻求技术支持频道留言,我们将尽快回复。 文档最后更新时间:2025-08-28
