OpenClaw 不锁定任何单一 AI 提供商——你可以在同一个助手平台里配置多个模型,按需切换或按任务自动路由。本文讲解完整配置方式。
支持的 AI 提供商
| 提供商 | 模型示例 | 特点 |
|---|---|---|
| Anthropic | claude-sonnet-4-5, claude-opus-4-5 | 默认,最强编程能力 |
| OpenAI | gpt-4o, gpt-4o-mini, o1 | 生态最广,Function Calling 成熟 |
| gemini-2.0-flash, gemini-pro | 多模态强,长上下文 | |
| Ollama | llama3, qwen2.5, mistral | 本地运行,完全免费 |
| AWS Bedrock | Claude via AWS | 企业合规,私有 VPC |
| Azure OpenAI | GPT-4 via Azure | 企业合规,数据留境 |
基础配置(多模型)
json
// ~/.openclaw/config.json
{
"ai": {
"defaultProvider": "anthropic",
"defaultModel": "claude-sonnet-4-5",
"providers": {
"anthropic": {
"apiKey": "sk-ant-你的key",
"models": ["claude-sonnet-4-5", "claude-opus-4-5", "claude-haiku-3-5"]
},
"openai": {
"apiKey": "sk-你的openai-key",
"models": ["gpt-4o", "gpt-4o-mini", "o1-mini"]
},
"google": {
"apiKey": "你的gemini-key",
"models": ["gemini-2.0-flash", "gemini-1.5-pro"]
},
"ollama": {
"baseUrl": "http://localhost:11434",
"models": ["llama3:8b", "qwen2.5:7b"]
}
}
}
}会话中切换模型
在 Telegram 或其他渠道里发送:
你:切换到 GPT-4o
助手:已切换到 OpenAI GPT-4o
你:切换到 claude-opus
助手:已切换到 Claude Opus 4.5
你:用本地 llama3 帮我翻译这段文字
助手:[使用 Ollama llama3 回复]
按任务自动路由(高级配置)
json
{
"ai": {
"routing": {
"rules": [
{
"match": "翻译|translate",
"provider": "google",
"model": "gemini-2.0-flash",
"reason": "Gemini 多语言翻译效果好且便宜"
},
{
"match": "代码|code|debug|编程",
"provider": "anthropic",
"model": "claude-sonnet-4-5",
"reason": "Claude 编程能力最强"
},
{
"match": "私密|隐私|本地",
"provider": "ollama",
"model": "llama3:8b",
"reason": "敏感内容本地处理"
}
],
"default": {"provider": "anthropic", "model": "claude-haiku-3-5"}
}
}
}配置 Ollama 本地模型
bash
# 安装 Ollama
curl -fsSL https://ollama.ai/install.sh | sh
# 下载模型
ollama pull llama3:8b # Meta Llama3(推荐入门)
ollama pull qwen2.5:7b # 阿里通义千问(中文更好)
ollama pull mistral:7b # Mistral(代码能力强)
# 启动服务(默认 11434 端口)
ollama serve
# 验证
curl http://localhost:11434/api/tagsOpenClaw 配置中把 baseUrl 指向 http://localhost:11434 即可使用。
OpenAI Compatible API
任何兼容 OpenAI API 格式的服务都可以接入:
json
{
"providers": {
"custom": {
"type": "openai-compatible",
"baseUrl": "https://api.deepseek.com/v1",
"apiKey": "你的deepseek-key",
"models": ["deepseek-chat", "deepseek-coder"]
}
}
}支持:DeepSeek、Moonshot(Kimi)、智谱 GLM、硅基流动等国内模型。
各模型优劣速查
| 模型 | 编程 | 中文 | 成本 | 速度 |
|---|---|---|---|---|
| claude-sonnet-4-5 | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | 中 | 中 |
| gpt-4o | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | 中 | 中 |
| gemini-2.0-flash | ⭐⭐⭐ | ⭐⭐⭐⭐ | 低 | 快 |
| claude-haiku-3-5 | ⭐⭐⭐ | ⭐⭐⭐ | 很低 | 很快 |
| llama3:8b (本地) | ⭐⭐⭐ | ⭐⭐ | 免费 | 视硬件 |
| qwen2.5:7b (本地) | ⭐⭐⭐ | ⭐⭐⭐⭐ | 免费 | 视硬件 |
推荐配置策略
个人开发者:
- 默认:claude-sonnet-4-5(编程/日常)
- 简单任务:claude-haiku-3-5(省钱)
- 本地隐私:ollama/qwen2.5
注重成本:
- 默认:gemini-2.0-flash(便宜量大)
- 高质量:claude-sonnet-4-5(按需)
- 超高频:本地 Ollama
来源:OpenClaw 官方文档 | AI 提供商文档