OpenClaw 支持 20+ 个主流 LLM 提供商,包括 Anthropic、OpenAI、Ollama 本地模型、OpenRouter 等。本文覆盖核心提供商的配置方式。
快速开始
选择提供商并设置默认模型:
openclaw onboard # 交互式向导,最简单的方式或直接配置:
{
"agents": {
"defaults": {
"model": {
"primary": "anthropic/claude-opus-4-6"
}
}
}
}模型 ID 格式
所有模型用 provider/model 格式指定:
| 示例 | 说明 |
|---|---|
anthropic/claude-sonnet-4-6 | Anthropic Claude Sonnet 4.6 |
openai/gpt-4o | OpenAI GPT-4o |
openrouter/anthropic/claude-opus-4-5 | 通过 OpenRouter 使用 Claude |
ollama/llama3.2 | 本地 Ollama 模型 |
venice/llama-3.3-70b | Venice AI(隐私优先) |
Anthropic 配置
API Key 方式
{
"models": {
"providers": {
"anthropic": {
"apiKey": "sk-ant-..."
}
}
}
}或设置环境变量:ANTHROPIC_API_KEY=sk-ant-...
Claude Code CLI OAuth 方式
openclaw onboard # 通过 Claude Code CLI 完成 OAuth 授权OAuth 方式无需手动管理 API Key,但注意:这种方式不支持向量记忆搜索的嵌入 API。
OpenAI 配置
{
"models": {
"providers": {
"openai": {
"apiKey": "sk-..."
}
}
}
}环境变量:OPENAI_API_KEY=sk-...
OpenRouter(访问多种模型)
OpenRouter 提供统一接口访问数百个模型,包括 Claude、GPT、Gemini、Llama 等:
{
"models": {
"providers": {
"openrouter": {
"apiKey": "sk-or-..."
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "openrouter/anthropic/claude-opus-4-5"
}
}
}
}OpenRouter 的优势:单一账单、访问不直接提供 API 的模型、自动负载均衡。
Ollama(本地模型,完全离线)
# 先安装 Ollama
brew install ollama # macOS
# 或 curl https://ollama.ai/install.sh | sh # Linux
# 拉取模型
ollama pull llama3.2
ollama pull qwen2.5-coder{
"models": {
"providers": {
"ollama": {
"baseUrl": "http://localhost:11434"
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "ollama/llama3.2"
}
}
}
}Ollama 无需 API Key,完全本地运行,数据不离开你的机器。
Venice AI(隐私优先推荐)
OpenClaw 推荐的隐私优先推理方案:
{
"models": {
"providers": {
"venice": {
"apiKey": "your-venice-key"
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "venice/llama-3.3-70b"
}
}
}
}- 默认推荐:
venice/llama-3.3-70b - 最强效果:
venice/claude-opus-45
Amazon Bedrock
{
"models": {
"providers": {
"bedrock": {
"region": "us-east-1",
"profile": "default"
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "bedrock/anthropic.claude-opus-4-5-v1:0"
}
}
}
}使用 AWS CLI 凭证文件(~/.aws/credentials),或设置 AWS_ACCESS_KEY_ID / AWS_SECRET_ACCESS_KEY 环境变量。
LiteLLM(统一网关)
已有 LiteLLM 代理服务器时:
{
"models": {
"providers": {
"litellm": {
"baseUrl": "http://localhost:4000",
"apiKey": "your-master-key"
}
}
}
}模型故障转移(Failover)
主模型失败时自动切换:
{
"agents": {
"defaults": {
"model": {
"primary": "anthropic/claude-opus-4-6",
"fallback": "openai/gpt-4o",
"fallbackOnErrors": ["rate_limit", "overloaded"]
}
}
}
}per-Agent 模型配置
不同 Agent 使用不同模型,平衡成本和效果:
{
"agents": {
"defaults": {
"model": { "primary": "anthropic/claude-sonnet-4-6" }
},
"list": [
{
"id": "heavy",
"model": { "primary": "anthropic/claude-opus-4-6" }
},
{
"id": "fast",
"model": { "primary": "anthropic/claude-haiku-4-5" }
}
]
}
}Claude Max API 代理(社区工具)
将 Claude Max/Pro 订阅用作 OpenAI 兼容 API 端点:
{
"models": {
"providers": {
"claude-max": {
"baseUrl": "http://localhost:8080"
}
}
}
}需要先安装 Claude Max API Proxy 工具(社区项目,见 docs.openclaw.ai/providers/claude-max-api-proxy)。
原文:Model Providers - OpenClaw | 来源:OpenClaw 官方文档