Skip to content

模型供应商概览

OpenClaw 支持十余家模型提供商,核心优势在于模型自由——不绑定任何一家厂商,你可以根据任务类型、预算和网络环境自由组合。所有配置通过 ~/.openclaw/openclaw.json 完成。

支持的模型提供商

提供商代表模型输入/1M输出/1M接入方式推荐场景
AnthropicClaude Sonnet 4.6$3.00$15.00内置 ProviderAgent 任务效果最佳
OpenAIGPT-5.4$2.50$15.00内置 Provider通用能力强
Google (Gemini)Gemini 3 Pro$2.00$12.00内置 Provider多模态、免费额度、超长上下文
xAI (Grok)Grok自定义 Provider实时信息获取
DeepSeekV3.2.2 / V4$0.14$0.28自定义 Provider极致低价、代码任务
智谱 GLMGLM-5 / GLM-4-Plus$0.80$2.56内置 (zai)国产最强代码能力,Pony-Alpha-2
通义千问 (Qwen)Qwen 3.5 Max$1.20$6.00插件 (OAuth)中文 NLP
混元 (Hunyuan)hunyuan-lite免费免费自定义 Provider腾讯出品、免费无限量
文心一言 (ERNIE)ERNIE 系列百度智能云百度生态、中文理解
豆包 (Doubao)Seed 2.0 Pro$0.47$2.37自定义 Provider火山引擎、批量处理、低成本
月之暗面 (Kimi)K2.5$0.60$3.00自定义 Provider128K 长上下文、中文 Agent
阶跃星辰 (StepFun)Step 系列自定义 Provider有免费模型可用
稀宇科技 (MiniMax)M2.5$0.50$2.00自定义 Provider多模态、SWE-bench 高分
OllamaQwen3.5-Coder:32B免费免费自动发现隐私敏感、零成本

国内提供商快速参考

提供商厂商控制台 / baseUrl
混元 (Hunyuan)腾讯https://api.hunyuan.cloud.tencent.com/v1
文心一言 (ERNIE)百度https://console.bce.baidu.com/qianfan
豆包 (Doubao)字节跳动 / 火山引擎https://console.volcengine.com/ark
智谱 (GLM)智谱 AIhttps://open.bigmodel.cn
月之暗面 (Kimi)Moonshothttps://platform.moonshot.cn
阶跃星辰 (StepFun)阶跃星辰https://platform.stepfun.com
稀宇科技 (MiniMax)MiniMaxhttps://platform.minimaxi.com
通义千问 (Qwen)阿里巴巴https://dashscope.console.aliyun.com
xAI (Grok)xAIhttps://console.x.ai
Google (Gemini)Googlehttps://aistudio.google.com

价格说明

以上价格为各提供商官网标价(单位:美元 / 1M tokens),实际费用可能因区域、优惠活动或包月套餐有所不同。

三种接入方式

内置 Provider

Anthropic、OpenAI、Google、智谱 (zai) 等,OpenClaw 已预置对接逻辑,只需设置 API Key 即可使用:

bash
# 以 Anthropic 为例
export ANTHROPIC_API_KEY=sk-ant-xxx

自定义 Provider

DeepSeek、豆包、Kimi 等需要在 openclaw.jsonmodels.providers 中手动添加:

json
{
  "models": {
    "mode": "merge",
    "providers": [
      {
        "name": "deepseek",
        "baseURL": "https://api.deepseek.com/v1",
        "apiKey": "sk-xxx",
        "models": ["deepseek-chat", "deepseek-reasoner"]
      }
    ]
  }
}

自动发现

Ollama 等本地部署方案,OpenClaw 会自动检测已安装的模型,无需手动配置模型列表。

多模型组合配置示例

以下是一个完整的多供应商配置示例,同时接入聚合平台、直连供应商和本地模型:

jsonc
{
  "models": {
    "providers": {
      "siliconflow": {
        "baseUrl": "https://api.siliconflow.cn/v1",
        "apiKey": "sk-xxxxx"
      },
      "deepseek": {
        "apiKey": "sk-xxxxx"
      },
      "ollama": {
        "baseUrl": "http://localhost:11434"
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "siliconflow/deepseek-ai/DeepSeek-V3"
      }
    }
  }
}

模型 ID 格式

模型 ID 的格式为 provider/model-name,例如 siliconflow/deepseek-ai/DeepSeek-V3。其中 provider 对应 models.providers 中配置的供应商名称,model-name 为该供应商下的模型标识。

关键配置:mode 字段

设置 "mode": "merge" 非常重要!它会保留内置 Provider 的同时叠加你的自定义配置。如果不设置,自定义配置会覆盖内置 Provider。

Fallback 机制

主模型不可用时,OpenClaw 会自动切换到备选模型,这是最核心的省钱和保障可用性的策略。详见 模型故障切换

PinchBench 模型评测参考

PinchBench 是一个开源的 LLM Agent 基准测试平台,专门测试 AI 模型在标准化编码任务上的实际表现,目前已追踪 33 个模型、105 次基准测试运行。

评测维度

指标含义选型建议
Success Rate任务完成成功率效果优先看这个
Avg Score %LLM 评判的结果质量效果优先看这个
Cost per Run单次运行成本(美元)成本控制看这个
Value Score性价比评分成本控制看这个
Avg Execution Time平均执行时间(秒)速度需求看这个

仅供参考

PinchBench 排名为社区第三方评测,实际表现受 Agent 配置、任务类型等因素影响。建议结合自身场景测试选型。

方案一:极致省钱(月均 < $5)

DeepSeek 主力 + Qwen 备选 + GLM Flash 心跳。适合个人开发者、学生党。

json
{
  "agents": {
    "defaults": {
      "model": {
        "primary": "deepseek/deepseek-chat",
        "fallbacks": ["qwen/qwen-3.5-max", "zai/glm-5-flash"]
      }
    }
  }
}

方案二:国产性价比($5 - $15)

GLM-5 主力 + DeepSeek 备选。国内直连,无需代理。

json
{
  "agents": {
    "defaults": {
      "model": {
        "primary": "zai/glm-5",
        "fallbacks": ["deepseek/deepseek-chat"]
      }
    }
  }
}

方案三:国际平衡($10 - $30)

Claude Sonnet 主力 + Haiku / Flash 轻量任务。追求最佳 Agent 效果。

json
{
  "agents": {
    "defaults": {
      "model": {
        "primary": "anthropic/claude-sonnet-4-6",
        "fallbacks": ["anthropic/claude-haiku-4-5", "google/gemini-3-flash"]
      }
    }
  }
}

方案四:混合最优($5 - $20,推荐)

Sonnet 处理复杂任务 + DeepSeek 日常编码 + Fallback 链兜底。最推荐的方案

json
{
  "agents": {
    "defaults": {
      "model": {
        "primary": "anthropic/claude-sonnet-4-6",
        "fallbacks": [
          "anthropic/claude-haiku-4-5",
          "deepseek/deepseek-chat"
        ]
      }
    }
  }
}

方案五:完全免费

Ollama 本地部署,或利用 GLM Flash + ERNIE Speed + Gemini Flash 等免费额度。

bash
# Ollama 本地方案
ollama pull qwen3.5-coder:32b
export OLLAMA_API_KEY=ollama-local
页面说明
OpenAI 配置GPT 系列模型接入与价格
Anthropic 配置Claude 系列模型接入,OpenClaw 默认 Provider
Ollama 本地部署本地运行开源模型,完全免费
聚合平台OpenRouter、硅基流动、one-api 等聚合方案
模型故障切换Fallback 高可用配置与省钱策略

基于 MIT 协议发布