教程

OpenClaw 多模型配置指南:同一助手灵活切换 Claude、GPT-4o 和 Gemini

OpenClaw 多模型配置完整教程:支持的 AI 提供商(Anthropic/OpenAI/Google/Ollama/AWS Bedrock)、config.json 配置方式、按会话切换模型、按任务路由模型、本地 Ollama 私有化部署,以及不同模型的成本和能力对比选择策略。

2026/3/153分钟 阅读ClaudeEagle

OpenClaw 不锁定任何单一 AI 提供商——你可以在同一个助手平台里配置多个模型,按需切换或按任务自动路由。本文讲解完整配置方式。

支持的 AI 提供商

提供商模型示例特点
Anthropicclaude-sonnet-4-5, claude-opus-4-5默认,最强编程能力
OpenAIgpt-4o, gpt-4o-mini, o1生态最广,Function Calling 成熟
Googlegemini-2.0-flash, gemini-pro多模态强,长上下文
Ollamallama3, qwen2.5, mistral本地运行,完全免费
AWS BedrockClaude via AWS企业合规,私有 VPC
Azure OpenAIGPT-4 via Azure企业合规,数据留境

基础配置(多模型)

json
// ~/.openclaw/config.json
{
  "ai": {
    "defaultProvider": "anthropic",
    "defaultModel": "claude-sonnet-4-5",
    "providers": {
      "anthropic": {
        "apiKey": "sk-ant-你的key",
        "models": ["claude-sonnet-4-5", "claude-opus-4-5", "claude-haiku-3-5"]
      },
      "openai": {
        "apiKey": "sk-你的openai-key",
        "models": ["gpt-4o", "gpt-4o-mini", "o1-mini"]
      },
      "google": {
        "apiKey": "你的gemini-key",
        "models": ["gemini-2.0-flash", "gemini-1.5-pro"]
      },
      "ollama": {
        "baseUrl": "http://localhost:11434",
        "models": ["llama3:8b", "qwen2.5:7b"]
      }
    }
  }
}

会话中切换模型

在 Telegram 或其他渠道里发送:

你:切换到 GPT-4o 助手:已切换到 OpenAI GPT-4o 你:切换到 claude-opus 助手:已切换到 Claude Opus 4.5 你:用本地 llama3 帮我翻译这段文字 助手:[使用 Ollama llama3 回复]

按任务自动路由(高级配置)

json
{
  "ai": {
    "routing": {
      "rules": [
        {
          "match": "翻译|translate",
          "provider": "google",
          "model": "gemini-2.0-flash",
          "reason": "Gemini 多语言翻译效果好且便宜"
        },
        {
          "match": "代码|code|debug|编程",
          "provider": "anthropic",
          "model": "claude-sonnet-4-5",
          "reason": "Claude 编程能力最强"
        },
        {
          "match": "私密|隐私|本地",
          "provider": "ollama",
          "model": "llama3:8b",
          "reason": "敏感内容本地处理"
        }
      ],
      "default": {"provider": "anthropic", "model": "claude-haiku-3-5"}
    }
  }
}

配置 Ollama 本地模型

bash
# 安装 Ollama
curl -fsSL https://ollama.ai/install.sh | sh

# 下载模型
ollama pull llama3:8b       # Meta Llama3(推荐入门)
ollama pull qwen2.5:7b      # 阿里通义千问(中文更好)
ollama pull mistral:7b      # Mistral(代码能力强)

# 启动服务(默认 11434 端口)
ollama serve

# 验证
curl http://localhost:11434/api/tags

OpenClaw 配置中把 baseUrl 指向 http://localhost:11434 即可使用。

OpenAI Compatible API

任何兼容 OpenAI API 格式的服务都可以接入:

json
{
  "providers": {
    "custom": {
      "type": "openai-compatible",
      "baseUrl": "https://api.deepseek.com/v1",
      "apiKey": "你的deepseek-key",
      "models": ["deepseek-chat", "deepseek-coder"]
    }
  }
}

支持:DeepSeek、Moonshot(Kimi)、智谱 GLM、硅基流动等国内模型。

各模型优劣速查

模型编程中文成本速度
claude-sonnet-4-5⭐⭐⭐⭐⭐⭐⭐⭐⭐
gpt-4o⭐⭐⭐⭐⭐⭐⭐⭐
gemini-2.0-flash⭐⭐⭐⭐⭐⭐⭐
claude-haiku-3-5⭐⭐⭐⭐⭐⭐很低很快
llama3:8b (本地)⭐⭐⭐⭐⭐免费视硬件
qwen2.5:7b (本地)⭐⭐⭐⭐⭐⭐⭐免费视硬件

推荐配置策略

个人开发者

  • 默认:claude-sonnet-4-5(编程/日常)
  • 简单任务:claude-haiku-3-5(省钱)
  • 本地隐私:ollama/qwen2.5

注重成本

  • 默认:gemini-2.0-flash(便宜量大)
  • 高质量:claude-sonnet-4-5(按需)
  • 超高频:本地 Ollama

来源:OpenClaw 官方文档 | AI 提供商文档

相关文章推荐

教程OpenClaw 模型提供商完全指南:从 Anthropic 到 Ollama 本地模型的配置方法OpenClaw 20+ 模型提供商配置完全指南:Anthropic(API Key + OAuth)、OpenAI、OpenRouter 统一接口、Ollama 本地离线模型、Venice AI 隐私推荐、Amazon Bedrock、LiteLLM 统一网关,以及模型故障转移和 per-Agent 模型配置。2026/3/2教程OpenClaw Standing Orders 完全指南:让 AI 记住你的长期规则和行为偏好OpenClaw Standing Orders(常驻指令)功能完整教程:Standing Orders 与 SOUL.md 的区别(动态运行时规则 vs 静态人格文件)、通过对话动态添加/查看/删除常驻指令、指令的持久化存储与跨会话生效机制、适合写入 Standing Orders 的内容类型(格式偏好/禁止行为/固定工作流)、与 Hooks 的协同使用、按渠道/Agent 设置不同的 Standing Orders,以及常驻指令的最佳实践(写清晰的规则、避免矛盾冲突、定期清理过时规则)。2026/3/26教程OpenClaw 多媒体处理完全指南:图片识别、音频转写与视频理解实战OpenClaw 多媒体处理(Media)完整教程:发送图片给 AI 进行视觉分析(OCR/物体识别/图表解读/代码截图)、音频消息自动转写为文字(Whisper/系统STT)、视频消息关键帧提取与理解、Node 摄像头实时拍照触发分析、媒体消息的渠道支持差异(各渠道的图片/音频/视频支持情况对比)、大文件处理策略(分割/压缩/超时设置)、媒体消息在不同 AI 模型上的能力对比(Claude Vision/GPT-4V/Gemini Pro Vision),以及本地媒体文件分析(read 工具读取图片路径)。2026/3/25教程OpenClaw TUI 完全指南:纯键盘操作的终端管理界面使用详解OpenClaw TUI(Terminal User Interface,终端用户界面)完整使用指南:TUI 与 Control UI(浏览器)的定位对比、适合 TUI 的场景(SSH 远程/无浏览器服务器/低带宽环境)、启动命令(openclaw tui)及参数、界面布局(Agents 面板/Sessions 面板/Channels 状态/Logs 实时流)、全键盘快捷键手册(导航/选择/搜索/刷新/退出)、在 TUI 中发送测试消息、实时日志过滤与搜索,以及 TUI 与 tmux/screen 配合使用的后台运行方案。2026/3/25教程OpenClaw Control UI 与 Dashboard 完全指南:浏览器管理 AI 助手的全功能界面OpenClaw Control UI(控制面板)与 Dashboard(仪表盘)完整使用指南:Control UI 的功能布局(Agents 管理/Tools 工具面板/Sessions 会话查看/Channel 渠道状态)、浏览器访问方式(本地 localhost:18789 vs 远程 SSH 隧道)、在 Control UI 中实时修改 Agent 配置(SOUL.md 编辑/模型切换/工具开关)、Dashboard 数据概览(Token 用量/渠道在线状态/会话列表/Node 节点健康)、从 Dashboard 发起诊断(doctor 命令)、以及 TUI(终端界面)的使用场景与快捷键。2026/3/24教程OpenClaw 群消息完全指南:群组配置、@ 触发、白名单与多 Bot 协同实战OpenClaw 群消息(Group Messages)完整配置教程:群组消息的触发方式(requireMention/commandPrefix/respondToAll)、各渠道群组配置差异(Telegram群/Discord服务器/Slack频道/WhatsApp群)、群组白名单与黑名单管理、限制特定成员才能触发 AI(allowedUsers/allowedRoles)、响应限速防刷屏(cooldown)、多 Bot 在同一群组协同分工的配置方案、群组 Session 的记忆与上下文管理,以及群组中 AI 的礼貌边界设计(何时发言/何时沉默)。2026/3/24