OpenClaw 接入云端 AI 模型后,Token 费用是持续开销。 本文从配置到策略,教你把 API 成本压到最低。
主流模型价格参考(2026)
| 模型 | 输入(每M token) | 输出(每M token) | 适合场景 |
|---|---|---|---|
| claude-opus-4-6 | $15 | $75 | 复杂推理、重要决策 |
| claude-sonnet-4-6 | $3 | $15 | 日常任务(推荐默认) |
| claude-haiku-4-5 | $0.25 | $1.25 | 简单问答、高频任务 |
| gpt-4o | $2.5 | $10 | 备用 |
| gemini-2.5-flash | $0.075 | $0.30 | 超低成本备用 |
| deepseek-chat | $0.27 | $1.10 | 国内低成本选择 |
| ollama/本地 | $0 | $0 | 隐私要求高或预算为零 |
关键洞察:Opus 比 Haiku 贵 60 倍—— 日常任务用 Haiku/Sonnet,真正需要才用 Opus。
Token 限制配置
单次请求上限
json
{
"agents": {
"defaults": {
"maxTokensPerRequest": 4096
}
}
}防止单次超长对话耗尽预算。
每日/每月累计上限
json
{
"agents": {
"defaults": {
"limits": {
"dailyTokens": 200000,
"monthlyTokens": 3000000,
"onExceed": "block"
}
}
}
}"block":超限后拒绝新请求(返回提示语)"degrade":超限后自动降级到更便宜的模型
Rate Limit 防刷配置
防止单个用户频繁触发导致费用激增:
json
{
"agents": {
"defaults": {
"rateLimit": {
"perUser": {
"requests": 10,
"window": "1h"
},
"global": {
"requests": 100,
"window": "1h"
},
"onExceed": "queue"
}
}
}
}perUser:每个用户每小时最多 10 次请求global:所有用户加起来每小时最多 100 次"queue":超限后排队等待(而非直接拒绝)
预算告警
json
{
"agents": {
"defaults": {
"budget": {
"dailyUsdLimit": 5.0,
"monthlyUsdLimit": 50.0,
"alertAt": 0.8,
"alertChannel": "telegram"
}
}
}
}- 当日费用达到 $4(80%)时,Telegram 发告警
- 达到 $5 时,拒绝新请求并通知
模型降级策略
高峰期或余额不足时,自动降到便宜模型:
json
{
"agents": {
"defaults": {
"model": {
"primary": "anthropic/claude-sonnet-4-6",
"fallback": [
"anthropic/claude-haiku-4-5",
"google/gemini-2.5-flash"
],
"degradeOnBudget": 0.9
}
}
}
}当日费用超过限额 90% 时,自动从 Sonnet 切到 Haiku。
Prompt Caching 减少重复费用
对于有大量重复内容的 System Prompt,开启 Prompt Caching:
json
{
"agents": {
"defaults": {
"promptCaching": true
}
}
}效果:
无缓存:每次对话都发送完整 SOUL.md(假设 2000 tokens)
→ 100 次对话 × 2000 tokens = 200,000 tokens 输入费用
有缓存:第一次发送后缓存,后续只收 0.1x 的缓存读取费
→ 实际节省 90% 的 System Prompt 费用
Ollama 本地模型(0 成本)
敏感数据或预算为零的场景:
bash
# 安装 Ollama
brew install ollama # macOS
curl -fsSL https://ollama.ai/install.sh | sh # Linux
# 下载模型(选择适合你硬件的大小)
ollama pull qwen2.5:7b # 4.7GB,普通笔记本可用
ollama pull qwen2.5:14b # 9GB,推荐
ollama pull llama3.3:70b # 43GB,需要高端 GPUjson
{
"providers": {
"ollama": { "baseUrl": "http://localhost:11434" }
},
"agents": {
"local": {
"model": { "primary": "ollama/qwen2.5:14b" }
}
}
}混用策略(推荐):
- 敏感数据/高频简单问答 → Ollama(免费)
- 复杂任务/需要高质量输出 → Claude Sonnet(付费)
监控用量
bash
# 查看今日用量
openclaw usage today
# 查看本月用量
openclaw usage month
# 按 Agent 分类
openclaw usage --by-agent
# 按渠道分类
openclaw usage --by-channelDashboard 也有实时图表:
http://127.0.0.1:18789 → Dashboard
→ 今日 Token 用量 + 费用估算
→ 按模型/渠道/Agent 分类饼图
来源:OpenClaw 官方文档 - docs.openclaw.ai/providers/models