深度

OpenClaw 多模型路由完全指南:30+ 模型提供商接入、智能切换与故障转移

OpenClaw 多模型路由系统完整教程:支持的 30+ 模型提供商全览(Anthropic/OpenAI/Gemini/Ollama/OpenRouter/DeepSeek/Qwen/GLM 等)、provider/model 格式的模型指定方式、按渠道/Agent/任务类型设置不同默认模型、Model Failover 故障转移配置(主模型失败自动切换备用模型)、Claude Max API Proxy 接入方式、本地模型(Ollama/vLLM)与云端模型混用策略,以及 Token 限制和费用控制实践。

2026/3/243分钟 阅读ClaudeEagle

OpenClaw 最大的差异化能力之一: 不绑死单一模型,30+ 模型提供商随意切换, 还能配置故障转移、按场景用不同模型。

支持的模型提供商(2026)

云端 API: Anthropic Claude 4/3.5 系列 OpenAI GPT-4o、o3、o4-mini Google Gemini 2.5 Pro/Flash DeepSeek DeepSeek V3/R1 xAI Grok 3 MistralAI Mistral Large/Small Groq Llama 3.3 超快推理 Together AI Llama/Qwen/Mistral OpenRouter 200+ 模型统一接口 Perplexity 搜索增强模型 国内云端: Moonshot AI Kimi K1.5 MiniMax abab6.5 GLM 智谱 GLM-4 Qwen 通义千问 Doubao 字节跳动火山引擎 Qianfan 百度文心一言 Xiaomi MiMo 小米 本地部署: Ollama 本地运行任意开源模型 vLLM 高性能本地推理 LiteLLM 本地模型代理 SGLang 结构化生成框架 企业/特殊: Amazon Bedrock AWS 托管模型 GitHub Copilot Copilot 订阅用户 Cloudflare AI CF Workers AI Vercel AI Vercel AI Gateway Claude Max Proxy Claude Max 拼车

模型指定格式

json
{
  "agents": {
    "defaults": {
      "model": {
        "primary": "anthropic/claude-sonnet-4-6"
      }
    }
  }
}

格式:provider/model-name

常用组合:

anthropic/claude-opus-4-6 最强,复杂推理 anthropic/claude-sonnet-4-6 能力/成本平衡(推荐日常) anthropic/claude-haiku-4-5 最快最便宜(简单任务) openai/gpt-4o OpenAI 旗舰 google/gemini-2.5-pro Google 最强 deepseek/deepseek-chat 国产高性价比 ollama/llama3.3 本地运行,免费 groq/llama-3.3-70b-versatile Groq 超快推理

按 Agent 设置不同模型

不同 Agent 用不同模型,精细控制成本和能力:

json
{
  "agents": {
    "personal-assistant": {
      "model": { "primary": "anthropic/claude-opus-4-6" }
    },
    "work-assistant": {
      "model": { "primary": "anthropic/claude-sonnet-4-6" }
    },
    "quick-helper": {
      "model": { "primary": "anthropic/claude-haiku-4-5" }
    },
    "local-coder": {
      "model": { "primary": "ollama/qwen2.5-coder:32b" }
    }
  }
}

故障转移(Model Failover)

主模型失败时自动切换备用模型:

json
{
  "agents": {
    "defaults": {
      "model": {
        "primary": "anthropic/claude-sonnet-4-6",
        "fallback": [
          "openai/gpt-4o",
          "google/gemini-2.5-flash",
          "deepseek/deepseek-chat"
        ]
      }
    }
  }
}

触发 Failover 的场景:

  • API 限流(429 Too Many Requests)
  • 服务暂时不可用(503)
  • 超时(30s 内无响应)
  • 余额不足

Claude Max API Proxy 接入

如果你有 Claude Max 订阅,可以通过 API Proxy 接入:

json
{
  "providers": {
    "claude-max-proxy": {
      "baseUrl": "https://your-crs-server.com/api",
      "apiKey": "your-proxy-key"
    }
  },
  "agents": {
    "defaults": {
      "model": { "primary": "claude-max-proxy/claude-sonnet-4-6" }
    }
  }
}

详见:CRS(Claude Relay Service)系列文章

Ollama 本地模型

完全本地运行,0 API 成本,保护隐私:

bash
# 先安装 Ollama 并下载模型
brew install ollama
ollama pull qwen2.5:14b
ollama pull llama3.3:70b
json
{
  "providers": {
    "ollama": {
      "baseUrl": "http://localhost:11434"
    }
  },
  "agents": {
    "local-agent": {
      "model": { "primary": "ollama/qwen2.5:14b" }
    }
  }
}

混用策略:敏感数据 → 本地 Ollama,普通任务 → 云端 Claude

国内模型接入(中国用户)

无法稳定访问 Anthropic 的用户可接入国内提供商:

json
{
  "providers": {
    "moonshot": {
      "apiKey": "sk-moonshot-xxx"
    },
    "deepseek": {
      "apiKey": "sk-deepseek-xxx"
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "deepseek/deepseek-chat",
        "fallback": ["moonshot/moonshot-v1-8k"]
      }
    }
  }
}

Token 限制与费用控制

json
{
  "agents": {
    "defaults": {
      "maxTokensPerRequest": 8192,
      "maxTokensPerDay": 100000,
      "budgetAlert": {
        "dailyUsdLimit": 5.0,
        "alertChannel": "telegram"
      }
    }
  }
}

超出限制时:

  • 拒绝新请求并通知用户
  • 发送告警到指定渠道
  • 自动切换到更便宜的 Fallback 模型

来源:OpenClaw 官方文档 - docs.openclaw.ai/providers/models

相关文章推荐

深度OpenClaw 多 Gateway 架构完全指南:一台机器运行多个独立 AI 助手实例OpenClaw 多 Gateway(Multi-Gateway)架构完整教程:多实例的隔离优势、同一台机器运行多个 Gateway(不同端口/配置文件/workspace)、systemd 管理多个 Gateway 服务、Nginx 虚拟主机为每个实例分配独立域名、API Key 隔离与成本拆分、单机多实例 vs 多机方案对比,以及 Docker Compose 多容器隔离部署方案。2026/3/26深度OpenClaw Hooks 自动化进阶:消息前后的智能拦截、转换与触发机制OpenClaw Hooks(钩子)自动化系统进阶教程:Hooks 的触发时机(before-send/after-receive/on-tool-call)、用 Hooks 拦截消息并修改内容(自动翻译/过滤/格式化)、基于条件的 Hook 触发(渠道过滤/关键词匹配)、Hook 中调用外部 API(Notion 记录/Bark 通知/监控告警)、exec 工具二次确认 Hook,以及 Hooks 与 SOUL.md 和 Standing Orders 的优先级关系详解。2026/3/26深度OpenClaw 插件开发完全指南:从零构建自定义渠道和工具插件OpenClaw 插件(Plugin)开发完整教程:插件类型(渠道插件/工具插件/Provider插件)、插件的目录结构和 package.json 规范、使用 Plugin SDK 开发自定义消息渠道(实现 onMessage/sendMessage 接口)、开发自定义工具(Tool)的函数签名和参数 Schema、本地插件安装与调试(openclaw plugins install ./local-plugin)、发布到 npm 的规范要求(@openclaw/ 命名空间)、插件的权限声明(capabilities)、社区插件列表(Plugin Bundles)获取,以及常见插件开发错误和调试技巧。2026/3/25深度OpenClaw 安全威胁模型深度解析:MITRE ATLAS 框架下的 AI 助手攻防分析OpenClaw 安全架构深度分析:个人助手信任模型(单用户/单 Gateway 边界)、形式化验证的认证逻辑、基于 MITRE ATLAS 框架的 AI 系统威胁分类(直接提示注入/间接提示注入/工具滥用/数据泄露/会话劫持)、多租户共享 Gateway 的风险与安全边界说明、exec/browser/文件工具的权限最小化配置、频道白名单与沙箱配置对应的威胁缓解措施,以及 `openclaw security audit` 命令的使用方法。2026/3/24深度OpenClaw 多渠道路由完全指南:同时管理 Telegram、WhatsApp、Slack 的统一 AI 助手OpenClaw 多渠道路由(Channel Routing)完整教程:如何在一个 OpenClaw 实例上同时运行 Telegram、WhatsApp、Slack 等多个渠道、每个渠道使用独立 Agent(SOUL.md)的路由配置、基于渠道类型和群组 ID 的路由规则、同一消息跨渠道广播(Broadcast Groups)、根据渠道身份动态调整 AI 人格与语言风格,以及多渠道管理的最佳实践(避免消息混淆/保持上下文独立/渠道专属配置)。2026/3/23深度OpenClaw Nodes 节点完全指南:把手机、树莓派变成 AI 助手的感知器官OpenClaw Nodes(节点)系统完整教程:Node 的定义(连接 Gateway 的外设设备而非独立 Gateway)、支持的节点类型(macOS/iOS/Android/无头服务器)、节点配对流程(devices list/approve 命令)、Node 提供的能力清单(截图/摄像头/录屏/GPS位置/短信/系统通知)、A2UI Canvas 控制、Exec 命令绑定到节点远程执行、headless 节点主机配置(system.run),以及多节点架构下的能力分配策略。2026/3/22