主题
模型供应商概览
OpenClaw 支持十余家模型提供商,核心优势在于模型自由——不绑定任何一家厂商,你可以根据任务类型、预算和网络环境自由组合。所有配置通过 ~/.openclaw/openclaw.json 完成。
支持的模型提供商
| 提供商 | 代表模型 | 输入/1M | 输出/1M | 接入方式 | 推荐场景 |
|---|---|---|---|---|---|
| Anthropic | Claude Sonnet 4.6 | $3.00 | $15.00 | 内置 Provider | Agent 任务效果最佳 |
| OpenAI | GPT-5.4 | $2.50 | $15.00 | 内置 Provider | 通用能力强 |
| Google (Gemini) | Gemini 3 Pro | $2.00 | $12.00 | 内置 Provider | 多模态、免费额度、超长上下文 |
| xAI (Grok) | Grok | — | — | 自定义 Provider | 实时信息获取 |
| DeepSeek | V3.2.2 / V4 | $0.14 | $0.28 | 自定义 Provider | 极致低价、代码任务 |
| 智谱 GLM | GLM-5 / GLM-4-Plus | $0.80 | $2.56 | 内置 (zai) | 国产最强代码能力,Pony-Alpha-2 |
| 通义千问 (Qwen) | Qwen 3.5 Max | $1.20 | $6.00 | 插件 (OAuth) | 中文 NLP |
| 混元 (Hunyuan) | hunyuan-lite | 免费 | 免费 | 自定义 Provider | 腾讯出品、免费无限量 |
| 文心一言 (ERNIE) | ERNIE 系列 | — | — | 百度智能云 | 百度生态、中文理解 |
| 豆包 (Doubao) | Seed 2.0 Pro | $0.47 | $2.37 | 自定义 Provider | 火山引擎、批量处理、低成本 |
| 月之暗面 (Kimi) | K2.5 | $0.60 | $3.00 | 自定义 Provider | 128K 长上下文、中文 Agent |
| 阶跃星辰 (StepFun) | Step 系列 | — | — | 自定义 Provider | 有免费模型可用 |
| 稀宇科技 (MiniMax) | M2.5 | $0.50 | $2.00 | 自定义 Provider | 多模态、SWE-bench 高分 |
| Ollama | Qwen3.5-Coder:32B | 免费 | 免费 | 自动发现 | 隐私敏感、零成本 |
国内提供商快速参考
| 提供商 | 厂商 | 控制台 / baseUrl |
|---|---|---|
| 混元 (Hunyuan) | 腾讯 | https://api.hunyuan.cloud.tencent.com/v1 |
| 文心一言 (ERNIE) | 百度 | https://console.bce.baidu.com/qianfan |
| 豆包 (Doubao) | 字节跳动 / 火山引擎 | https://console.volcengine.com/ark |
| 智谱 (GLM) | 智谱 AI | https://open.bigmodel.cn |
| 月之暗面 (Kimi) | Moonshot | https://platform.moonshot.cn |
| 阶跃星辰 (StepFun) | 阶跃星辰 | https://platform.stepfun.com |
| 稀宇科技 (MiniMax) | MiniMax | https://platform.minimaxi.com |
| 通义千问 (Qwen) | 阿里巴巴 | https://dashscope.console.aliyun.com |
| xAI (Grok) | xAI | https://console.x.ai |
| Google (Gemini) | https://aistudio.google.com |
价格说明
以上价格为各提供商官网标价(单位:美元 / 1M tokens),实际费用可能因区域、优惠活动或包月套餐有所不同。
三种接入方式
内置 Provider
Anthropic、OpenAI、Google、智谱 (zai) 等,OpenClaw 已预置对接逻辑,只需设置 API Key 即可使用:
bash
# 以 Anthropic 为例
export ANTHROPIC_API_KEY=sk-ant-xxx自定义 Provider
DeepSeek、豆包、Kimi 等需要在 openclaw.json 的 models.providers 中手动添加:
json
{
"models": {
"mode": "merge",
"providers": [
{
"name": "deepseek",
"baseURL": "https://api.deepseek.com/v1",
"apiKey": "sk-xxx",
"models": ["deepseek-chat", "deepseek-reasoner"]
}
]
}
}自动发现
Ollama 等本地部署方案,OpenClaw 会自动检测已安装的模型,无需手动配置模型列表。
多模型组合配置示例
以下是一个完整的多供应商配置示例,同时接入聚合平台、直连供应商和本地模型:
jsonc
{
"models": {
"providers": {
"siliconflow": {
"baseUrl": "https://api.siliconflow.cn/v1",
"apiKey": "sk-xxxxx"
},
"deepseek": {
"apiKey": "sk-xxxxx"
},
"ollama": {
"baseUrl": "http://localhost:11434"
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "siliconflow/deepseek-ai/DeepSeek-V3"
}
}
}
}模型 ID 格式
模型 ID 的格式为 provider/model-name,例如 siliconflow/deepseek-ai/DeepSeek-V3。其中 provider 对应 models.providers 中配置的供应商名称,model-name 为该供应商下的模型标识。
关键配置:mode 字段
设置 "mode": "merge" 非常重要!它会保留内置 Provider 的同时叠加你的自定义配置。如果不设置,自定义配置会覆盖内置 Provider。
Fallback 机制
主模型不可用时,OpenClaw 会自动切换到备选模型,这是最核心的省钱和保障可用性的策略。详见 模型故障切换。
PinchBench 模型评测参考
PinchBench 是一个开源的 LLM Agent 基准测试平台,专门测试 AI 模型在标准化编码任务上的实际表现,目前已追踪 33 个模型、105 次基准测试运行。
评测维度
| 指标 | 含义 | 选型建议 |
|---|---|---|
| Success Rate | 任务完成成功率 | 效果优先看这个 |
| Avg Score % | LLM 评判的结果质量 | 效果优先看这个 |
| Cost per Run | 单次运行成本(美元) | 成本控制看这个 |
| Value Score | 性价比评分 | 成本控制看这个 |
| Avg Execution Time | 平均执行时间(秒) | 速度需求看这个 |
仅供参考
PinchBench 排名为社区第三方评测,实际表现受 Agent 配置、任务类型等因素影响。建议结合自身场景测试选型。
五套推荐方案
方案一:极致省钱(月均 < $5)
DeepSeek 主力 + Qwen 备选 + GLM Flash 心跳。适合个人开发者、学生党。
json
{
"agents": {
"defaults": {
"model": {
"primary": "deepseek/deepseek-chat",
"fallbacks": ["qwen/qwen-3.5-max", "zai/glm-5-flash"]
}
}
}
}方案二:国产性价比($5 - $15)
GLM-5 主力 + DeepSeek 备选。国内直连,无需代理。
json
{
"agents": {
"defaults": {
"model": {
"primary": "zai/glm-5",
"fallbacks": ["deepseek/deepseek-chat"]
}
}
}
}方案三:国际平衡($10 - $30)
Claude Sonnet 主力 + Haiku / Flash 轻量任务。追求最佳 Agent 效果。
json
{
"agents": {
"defaults": {
"model": {
"primary": "anthropic/claude-sonnet-4-6",
"fallbacks": ["anthropic/claude-haiku-4-5", "google/gemini-3-flash"]
}
}
}
}方案四:混合最优($5 - $20,推荐)
Sonnet 处理复杂任务 + DeepSeek 日常编码 + Fallback 链兜底。最推荐的方案。
json
{
"agents": {
"defaults": {
"model": {
"primary": "anthropic/claude-sonnet-4-6",
"fallbacks": [
"anthropic/claude-haiku-4-5",
"deepseek/deepseek-chat"
]
}
}
}
}方案五:完全免费
Ollama 本地部署,或利用 GLM Flash + ERNIE Speed + Gemini Flash 等免费额度。
bash
# Ollama 本地方案
ollama pull qwen3.5-coder:32b
export OLLAMA_API_KEY=ollama-local章节导航
| 页面 | 说明 |
|---|---|
| OpenAI 配置 | GPT 系列模型接入与价格 |
| Anthropic 配置 | Claude 系列模型接入,OpenClaw 默认 Provider |
| Ollama 本地部署 | 本地运行开源模型,完全免费 |
| 聚合平台 | OpenRouter、硅基流动、one-api 等聚合方案 |
| 模型故障切换 | Fallback 高可用配置与省钱策略 |