OpenClaw 最大的差异化能力之一: 不绑死单一模型,30+ 模型提供商随意切换, 还能配置故障转移、按场景用不同模型。
支持的模型提供商(2026)
云端 API:
Anthropic Claude 4/3.5 系列
OpenAI GPT-4o、o3、o4-mini
Google Gemini 2.5 Pro/Flash
DeepSeek DeepSeek V3/R1
xAI Grok 3
MistralAI Mistral Large/Small
Groq Llama 3.3 超快推理
Together AI Llama/Qwen/Mistral
OpenRouter 200+ 模型统一接口
Perplexity 搜索增强模型
国内云端:
Moonshot AI Kimi K1.5
MiniMax abab6.5
GLM 智谱 GLM-4
Qwen 通义千问
Doubao 字节跳动火山引擎
Qianfan 百度文心一言
Xiaomi MiMo 小米
本地部署:
Ollama 本地运行任意开源模型
vLLM 高性能本地推理
LiteLLM 本地模型代理
SGLang 结构化生成框架
企业/特殊:
Amazon Bedrock AWS 托管模型
GitHub Copilot Copilot 订阅用户
Cloudflare AI CF Workers AI
Vercel AI Vercel AI Gateway
Claude Max Proxy Claude Max 拼车
模型指定格式
json
{
"agents": {
"defaults": {
"model": {
"primary": "anthropic/claude-sonnet-4-6"
}
}
}
}格式:provider/model-name
常用组合:
anthropic/claude-opus-4-6 最强,复杂推理
anthropic/claude-sonnet-4-6 能力/成本平衡(推荐日常)
anthropic/claude-haiku-4-5 最快最便宜(简单任务)
openai/gpt-4o OpenAI 旗舰
google/gemini-2.5-pro Google 最强
deepseek/deepseek-chat 国产高性价比
ollama/llama3.3 本地运行,免费
groq/llama-3.3-70b-versatile Groq 超快推理
按 Agent 设置不同模型
不同 Agent 用不同模型,精细控制成本和能力:
json
{
"agents": {
"personal-assistant": {
"model": { "primary": "anthropic/claude-opus-4-6" }
},
"work-assistant": {
"model": { "primary": "anthropic/claude-sonnet-4-6" }
},
"quick-helper": {
"model": { "primary": "anthropic/claude-haiku-4-5" }
},
"local-coder": {
"model": { "primary": "ollama/qwen2.5-coder:32b" }
}
}
}故障转移(Model Failover)
主模型失败时自动切换备用模型:
json
{
"agents": {
"defaults": {
"model": {
"primary": "anthropic/claude-sonnet-4-6",
"fallback": [
"openai/gpt-4o",
"google/gemini-2.5-flash",
"deepseek/deepseek-chat"
]
}
}
}
}触发 Failover 的场景:
- API 限流(429 Too Many Requests)
- 服务暂时不可用(503)
- 超时(30s 内无响应)
- 余额不足
Claude Max API Proxy 接入
如果你有 Claude Max 订阅,可以通过 API Proxy 接入:
json
{
"providers": {
"claude-max-proxy": {
"baseUrl": "https://your-crs-server.com/api",
"apiKey": "your-proxy-key"
}
},
"agents": {
"defaults": {
"model": { "primary": "claude-max-proxy/claude-sonnet-4-6" }
}
}
}详见:CRS(Claude Relay Service)系列文章
Ollama 本地模型
完全本地运行,0 API 成本,保护隐私:
bash
# 先安装 Ollama 并下载模型
brew install ollama
ollama pull qwen2.5:14b
ollama pull llama3.3:70bjson
{
"providers": {
"ollama": {
"baseUrl": "http://localhost:11434"
}
},
"agents": {
"local-agent": {
"model": { "primary": "ollama/qwen2.5:14b" }
}
}
}混用策略:敏感数据 → 本地 Ollama,普通任务 → 云端 Claude
国内模型接入(中国用户)
无法稳定访问 Anthropic 的用户可接入国内提供商:
json
{
"providers": {
"moonshot": {
"apiKey": "sk-moonshot-xxx"
},
"deepseek": {
"apiKey": "sk-deepseek-xxx"
}
},
"agents": {
"defaults": {
"model": {
"primary": "deepseek/deepseek-chat",
"fallback": ["moonshot/moonshot-v1-8k"]
}
}
}
}Token 限制与费用控制
json
{
"agents": {
"defaults": {
"maxTokensPerRequest": 8192,
"maxTokensPerDay": 100000,
"budgetAlert": {
"dailyUsdLimit": 5.0,
"alertChannel": "telegram"
}
}
}
}超出限制时:
- 拒绝新请求并通知用户
- 发送告警到指定渠道
- 自动切换到更便宜的 Fallback 模型
来源:OpenClaw 官方文档 - docs.openclaw.ai/providers/models