聚合平台
除了直接对接各模型提供商的 API,你还可以通过聚合平台用一个 API Key 调用多家模型。本节介绍三类方案:国内聚合、国际聚合和自建网关。
硅基流动 SiliconFlow(国内首选)
国内最大的模型聚合平台,一个 API 调用多个开源模型,且提供免费额度。
优势:
- 国内直连,延迟低
- 聚合主流开源模型(Qwen、DeepSeek、GLM 等)
- 新用户有免费额度可体验
- 兼容 OpenAI API 格式
OpenRouter(国际首选)
290+ 模型,OpenClaw 内置支持。适合需要同时使用多家国际模型的用户。
一句话概括
不想同时管理 Anthropic、OpenAI、Google 三个账号和三张信用卡?OpenRouter 是目前最省心的解决方案。
OpenRouter(openrouter.ai)是一个第三方大模型聚合 API 平台,相当于模型界的"中间商"。它把 Claude、GPT-4o、Gemini、DeepSeek 等几十个主流模型统一封装成一个 OpenAI 兼容接口,你只需要一个 API Key、充一次钱,就能调用全部模型。
核心优势
| 优势 | 说明 |
|---|---|
| 一个 Key 走天下 | 不需要分别注册 Anthropic、OpenAI、Google,一个账号管理所有模型 |
| 统一计费 | 充一次美元余额,所有模型共用,不用担心某个平台账单欠费 |
| 国内可直连 | OpenRouter 有全球 CDN,国内用户无需科学上网即可访问(部分地区需要) |
| 自动 Fallback | 支持同一模型多个服务商之间自动切换,主服务商宕机自动换备用 |
| 价格透明 | 官网实时展示每个模型的价格,部分模型比直接调用官方 API 更便宜 |
| 用量统计 | 统一的 Dashboard 查看所有模型的调用量和费用,方便成本管控 |
| 免费模型 | 提供若干免费模型(如 Mistral 7B、Llama 3 等),适合测试和低频使用 |
接入 OpenClaw 的 3 步配置
第一步:注册并获取 API Key
- 访问 openrouter.ai,用 Google 账号或邮箱注册
- 进入 Keys 页面,点击 Create Key
- 复制生成的 API Key(格式为
sk-or-v1-xxxxxxxx) - 在 Credits 页面充值(最低 $5 起充,支持信用卡)
第二步:在 openclaw.json 中配置
OpenRouter 完全兼容 OpenAI 格式,只需修改 baseURL 和 apiKey:
{
"models": {
"primary": {
"provider": "openai-compatible",
"baseURL": "https://openrouter.ai/api/v1",
"apiKey": "${OPENROUTER_API_KEY}",
"model": "anthropic/claude-3.5-sonnet"
},
"fast": {
"provider": "openai-compatible",
"baseURL": "https://openrouter.ai/api/v1",
"apiKey": "${OPENROUTER_API_KEY}",
"model": "google/gemini-flash-1.5"
}
}
}在 .env 文件中添加:
OPENROUTER_API_KEY=sk-or-v1-你的key第三步:OpenRouter 上的模型 ID 命名规则
格式为 提供商/模型名,常用模型 ID 对照:
| 模型 | OpenRouter ID | 备注 |
|---|---|---|
| Claude 3.5 Sonnet | anthropic/claude-3.5-sonnet | 最推荐 |
| Claude 3.5 Haiku | anthropic/claude-3.5-haiku | 快速便宜 |
| GPT-4o | openai/gpt-4o | 多模态 |
| GPT-4o mini | openai/gpt-4o-mini | 极低成本 |
| Gemini 1.5 Flash | google/gemini-flash-1.5 | 长文档免费 |
| DeepSeek V3 | deepseek/deepseek-chat | 中文性价比 |
| Llama 3.1 70B | meta-llama/llama-3.1-70b-instruct | 开源免费 |
使用注意事项
- 延迟略高:OpenRouter 多了一层中转,响应时间比直连官方 API 慢约 100-300ms,对实时性要求极高的场景建议直连
- 部分模型有排队:免费模型高峰期可能需要排队,付费模型无此问题
- HTTP-Referer 头:OpenRouter 要求请求头中带
HTTP-Referer,OpenClaw 的openai-compatibleprovider 会自动处理,无需手动配置 - 余额预警:建议在 OpenRouter Dashboard 开启余额不足邮件提醒,避免 Agent 因余额耗尽静默失败
原有配置方式
openclaw onboard --auth-choice apiKey \
--token-provider openrouter \
--token "$OPENROUTER_API_KEY"或手动设置环境变量:
export OPENROUTER_API_KEY=sk-or-xxx平台费用
OpenRouter 在模型原价基础上收取 5.5% 平台费。如果你长期高频使用某个模型,直接对接原厂 API 更划算。
适用场景
- 想快速试用多家模型,不想分别注册各平台
- 需要访问一些小众模型
- 作为备用通道,主 API 不可用时自动切换
one-api / new-api(自建方案)
开源 API 管理工具,自建网关,统一管理多个 API Key。适合团队和进阶用户。
适合什么场景?
- 团队多人共用 API Key,需要统一计量和限流
- 手上有多家 API Key,想做自动负载均衡
- 需要对 API 调用做审计和日志记录
注意事项
中转服务必须支持 OpenAI 的 Responses API(/v1/responses 路径)。部分旧版中转工具只支持 /v1/chat/completions,无法与 OpenClaw 完全兼容。
部署前请确认中转服务的兼容性,或升级到最新版本的 one-api / new-api。
Coding Plan 包月套餐
部分提供商推出了面向开发者的包月方案,适合用量稳定的团队:
模型厂商直营
| 厂商 | 方案 | 说明 |
|---|---|---|
| 智谱 GLM | Coding Plan | 包月不限量,适合重度 GLM 用户 |
| Kimi | Coding Plan | 包月方案,中文 Agent 场景 |
| MiniMax | Coding Plan | 包月方案,SWE-bench 高分模型 |
云平台聚合
| 平台 | 说明 |
|---|---|
| 阿里云百炼 | 聚合多模型,企业级 SLA |
| 腾讯云 | 聚合方案,国内访问稳定 |
| 火山引擎 | 字节系平台,豆包模型原生支持 |
选择建议
- 个人开发者:硅基流动免费额度 + DeepSeek 按量付费
- 小团队:OpenRouter 或某家 Coding Plan 包月
- 企业 / 进阶:one-api 自建网关,统一管理多个渠道