教程

OpenClaw 模型提供商完全指南:从 Anthropic 到 Ollama 本地模型的配置方法

OpenClaw 20+ 模型提供商配置完全指南:Anthropic(API Key + OAuth)、OpenAI、OpenRouter 统一接口、Ollama 本地离线模型、Venice AI 隐私推荐、Amazon Bedrock、LiteLLM 统一网关,以及模型故障转移和 per-Agent 模型配置。

2026/3/23分钟 阅读ClaudeEagle

OpenClaw 支持 20+ 个主流 LLM 提供商,包括 Anthropic、OpenAI、Ollama 本地模型、OpenRouter 等。本文覆盖核心提供商的配置方式。

快速开始

选择提供商并设置默认模型:

bash
openclaw onboard  # 交互式向导,最简单的方式

或直接配置:

json
{
  "agents": {
    "defaults": {
      "model": {
        "primary": "anthropic/claude-opus-4-6"
      }
    }
  }
}

模型 ID 格式

所有模型用 provider/model 格式指定:

示例说明
anthropic/claude-sonnet-4-6Anthropic Claude Sonnet 4.6
openai/gpt-4oOpenAI GPT-4o
openrouter/anthropic/claude-opus-4-5通过 OpenRouter 使用 Claude
ollama/llama3.2本地 Ollama 模型
venice/llama-3.3-70bVenice AI(隐私优先)

Anthropic 配置

API Key 方式

json
{
  "models": {
    "providers": {
      "anthropic": {
        "apiKey": "sk-ant-..."
      }
    }
  }
}

或设置环境变量:ANTHROPIC_API_KEY=sk-ant-...

Claude Code CLI OAuth 方式

bash
openclaw onboard  # 通过 Claude Code CLI 完成 OAuth 授权

OAuth 方式无需手动管理 API Key,但注意:这种方式支持向量记忆搜索的嵌入 API。

OpenAI 配置

json
{
  "models": {
    "providers": {
      "openai": {
        "apiKey": "sk-..."
      }
    }
  }
}

环境变量:OPENAI_API_KEY=sk-...

OpenRouter(访问多种模型)

OpenRouter 提供统一接口访问数百个模型,包括 Claude、GPT、Gemini、Llama 等:

json
{
  "models": {
    "providers": {
      "openrouter": {
        "apiKey": "sk-or-..."
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "openrouter/anthropic/claude-opus-4-5"
      }
    }
  }
}

OpenRouter 的优势:单一账单、访问不直接提供 API 的模型、自动负载均衡。

Ollama(本地模型,完全离线)

bash
# 先安装 Ollama
brew install ollama  # macOS
# 或 curl https://ollama.ai/install.sh | sh  # Linux

# 拉取模型
ollama pull llama3.2
ollama pull qwen2.5-coder
json
{
  "models": {
    "providers": {
      "ollama": {
        "baseUrl": "http://localhost:11434"
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama/llama3.2"
      }
    }
  }
}

Ollama 无需 API Key,完全本地运行,数据不离开你的机器。

Venice AI(隐私优先推荐)

OpenClaw 推荐的隐私优先推理方案:

json
{
  "models": {
    "providers": {
      "venice": {
        "apiKey": "your-venice-key"
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "venice/llama-3.3-70b"
      }
    }
  }
}
  • 默认推荐:venice/llama-3.3-70b
  • 最强效果:venice/claude-opus-45

Amazon Bedrock

json
{
  "models": {
    "providers": {
      "bedrock": {
        "region": "us-east-1",
        "profile": "default"
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "bedrock/anthropic.claude-opus-4-5-v1:0"
      }
    }
  }
}

使用 AWS CLI 凭证文件(~/.aws/credentials),或设置 AWS_ACCESS_KEY_ID / AWS_SECRET_ACCESS_KEY 环境变量。

LiteLLM(统一网关)

已有 LiteLLM 代理服务器时:

json
{
  "models": {
    "providers": {
      "litellm": {
        "baseUrl": "http://localhost:4000",
        "apiKey": "your-master-key"
      }
    }
  }
}

模型故障转移(Failover)

主模型失败时自动切换:

json
{
  "agents": {
    "defaults": {
      "model": {
        "primary": "anthropic/claude-opus-4-6",
        "fallback": "openai/gpt-4o",
        "fallbackOnErrors": ["rate_limit", "overloaded"]
      }
    }
  }
}

per-Agent 模型配置

不同 Agent 使用不同模型,平衡成本和效果:

json
{
  "agents": {
    "defaults": {
      "model": { "primary": "anthropic/claude-sonnet-4-6" }
    },
    "list": [
      {
        "id": "heavy",
        "model": { "primary": "anthropic/claude-opus-4-6" }
      },
      {
        "id": "fast",
        "model": { "primary": "anthropic/claude-haiku-4-5" }
      }
    ]
  }
}

Claude Max API 代理(社区工具)

将 Claude Max/Pro 订阅用作 OpenAI 兼容 API 端点:

json
{
  "models": {
    "providers": {
      "claude-max": {
        "baseUrl": "http://localhost:8080"
      }
    }
  }
}

需要先安装 Claude Max API Proxy 工具(社区项目,见 docs.openclaw.ai/providers/claude-max-api-proxy)。


原文:Model Providers - OpenClaw | 来源:OpenClaw 官方文档

相关文章推荐

教程OpenClaw 多模型配置指南:同一助手灵活切换 Claude、GPT-4o 和 GeminiOpenClaw 多模型配置完整教程:支持的 AI 提供商(Anthropic/OpenAI/Google/Ollama/AWS Bedrock)、config.json 配置方式、按会话切换模型、按任务路由模型、本地 Ollama 私有化部署,以及不同模型的成本和能力对比选择策略。2026/3/15教程OpenClaw Standing Orders 完全指南:让 AI 记住你的长期规则和行为偏好OpenClaw Standing Orders(常驻指令)功能完整教程:Standing Orders 与 SOUL.md 的区别(动态运行时规则 vs 静态人格文件)、通过对话动态添加/查看/删除常驻指令、指令的持久化存储与跨会话生效机制、适合写入 Standing Orders 的内容类型(格式偏好/禁止行为/固定工作流)、与 Hooks 的协同使用、按渠道/Agent 设置不同的 Standing Orders,以及常驻指令的最佳实践(写清晰的规则、避免矛盾冲突、定期清理过时规则)。2026/3/26教程OpenClaw 多媒体处理完全指南:图片识别、音频转写与视频理解实战OpenClaw 多媒体处理(Media)完整教程:发送图片给 AI 进行视觉分析(OCR/物体识别/图表解读/代码截图)、音频消息自动转写为文字(Whisper/系统STT)、视频消息关键帧提取与理解、Node 摄像头实时拍照触发分析、媒体消息的渠道支持差异(各渠道的图片/音频/视频支持情况对比)、大文件处理策略(分割/压缩/超时设置)、媒体消息在不同 AI 模型上的能力对比(Claude Vision/GPT-4V/Gemini Pro Vision),以及本地媒体文件分析(read 工具读取图片路径)。2026/3/25教程OpenClaw TUI 完全指南:纯键盘操作的终端管理界面使用详解OpenClaw TUI(Terminal User Interface,终端用户界面)完整使用指南:TUI 与 Control UI(浏览器)的定位对比、适合 TUI 的场景(SSH 远程/无浏览器服务器/低带宽环境)、启动命令(openclaw tui)及参数、界面布局(Agents 面板/Sessions 面板/Channels 状态/Logs 实时流)、全键盘快捷键手册(导航/选择/搜索/刷新/退出)、在 TUI 中发送测试消息、实时日志过滤与搜索,以及 TUI 与 tmux/screen 配合使用的后台运行方案。2026/3/25教程OpenClaw Control UI 与 Dashboard 完全指南:浏览器管理 AI 助手的全功能界面OpenClaw Control UI(控制面板)与 Dashboard(仪表盘)完整使用指南:Control UI 的功能布局(Agents 管理/Tools 工具面板/Sessions 会话查看/Channel 渠道状态)、浏览器访问方式(本地 localhost:18789 vs 远程 SSH 隧道)、在 Control UI 中实时修改 Agent 配置(SOUL.md 编辑/模型切换/工具开关)、Dashboard 数据概览(Token 用量/渠道在线状态/会话列表/Node 节点健康)、从 Dashboard 发起诊断(doctor 命令)、以及 TUI(终端界面)的使用场景与快捷键。2026/3/24教程OpenClaw 群消息完全指南:群组配置、@ 触发、白名单与多 Bot 协同实战OpenClaw 群消息(Group Messages)完整配置教程:群组消息的触发方式(requireMention/commandPrefix/respondToAll)、各渠道群组配置差异(Telegram群/Discord服务器/Slack频道/WhatsApp群)、群组白名单与黑名单管理、限制特定成员才能触发 AI(allowedUsers/allowedRoles)、响应限速防刷屏(cooldown)、多 Bot 在同一群组协同分工的配置方案、群组 Session 的记忆与上下文管理,以及群组中 AI 的礼貌边界设计(何时发言/何时沉默)。2026/3/24