Skip to content

模型故障切换

Fallback 机制是 OpenClaw 最核心的省钱和保障可用性的策略。当主模型不可用时,系统自动切换到备选模型,确保工作流不中断。

工作原理

用户请求 → 主模型 (primary)
               ↓ 失败(超时/限流/报错)
            备选模型 1 (fallback[0])
               ↓ 失败
            备选模型 2 (fallback[1])
               ↓ 失败
            ...继续尝试 fallback 链

触发条件

以下情况会触发自动切换:

  • API 错误(5xx):服务端故障
  • 请求超时:网络不稳定或模型响应慢
  • 额度耗尽(429):速率限制或余额不足
  • 服务不可用:模型下线或维护

配置示例

推荐配置(方案四:混合最优)

~/.openclaw/openclaw.json 中设置:

json
{
  "agents": {
    "defaults": {
      "model": {
        "primary": "anthropic/claude-sonnet-4-6",
        "fallbacks": [
          "anthropic/claude-haiku-4-5",
          "deepseek/deepseek-chat"
        ]
      }
    }
  }
}

这套配置的逻辑是:

  1. Sonnet 4.6($3.00/1M)处理主要任务
  2. Sonnet 不可用时降级到 Haiku 4.5($1.00/1M),保持 Claude 生态
  3. Claude 全线不可用时切换到 DeepSeek($0.14/1M),成本极低

极致省钱配置

json
{
  "agents": {
    "defaults": {
      "model": {
        "primary": "deepseek/deepseek-chat",
        "fallbacks": [
          "zai/glm-5-flash",
          "ollama/qwen3.5-coder:32b"
        ]
      }
    }
  }
}

带本地兜底的配置

json
{
  "agents": {
    "defaults": {
      "model": {
        "primary": "anthropic/claude-sonnet-4-6",
        "fallbacks": [
          "deepseek/deepseek-chat",
          "ollama/qwen3.5-coder:32b"
        ]
      }
    }
  }
}

本地模型兜底

将 Ollama 本地模型放在 Fallback 链末尾,即使所有云端 API 都不可用,你仍然能继续工作。

价格速查排行

按输入价格从低到高排列(单位:美元 / 1M tokens):

排名模型输入/1M输出/1M
1Ollama 本地模型免费免费
2DeepSeek V3.2.2$0.14$0.28
3豆包 Seed 2.0 Pro$0.47$2.37
4MiniMax M2.5$0.50$2.00
5Kimi K2.5$0.60$3.00
6智谱 GLM-5$0.80$2.56
7Claude Haiku 4.5$1.00$5.00
8通义千问 Qwen 3.5 Max$1.20$6.00
9Google Gemini 3 Pro$2.00$12.00
10OpenAI GPT-5.4$2.50$15.00
11Claude Sonnet 4.6$3.00$15.00
12Claude Opus 4.6$5.00$25.00

配置要点速查

操作命令
交互式初始化openclaw onboard
查看已配置模型openclaw models list
探测模型可用性openclaw models status --probe
设置主模型openclaw config set agents.defaults.model.primary <model-id>
重启网关(配置生效)openclaw gateway restart

修改配置后

部分配置修改后需要执行 openclaw gateway restart 才能生效,特别是涉及 Provider 和 Fallback 链的变更。

基于 MIT 协议发布