探索 Claude AI 编程的最新趋势、实用技巧和最佳实践
Hermes Agent 免费和低成本使用完整指南:本地 Ollama 零费用配置、OpenRouter 免费模型、付费用量控制策略,以及 VPS 24 小时部署方案,含省 token 技巧和实际月费参考。
Hermes Agent 完整安装配置教程:一键安装、OpenRouter/Anthropic/Ollama 提供商选择、Telegram Bot 配置、Docker 沙箱部署、MCP 工具接入和社区技能安装,含常见报错解决方案。
OpenClaw API 费用控制完整教程:每请求/每日 Token 上限配置(maxTokensPerRequest/maxTokensPerDay)、Rate Limit 限流防刷设置、每日美元预算告警(budgetAlert)、模型降级策略(高峰期自动切 Haiku 降成本)、Prompt Caching 开启减少重复 Token 消耗、各模型每百万 Token 价格对比表、Ollama 本地模型 0 成本方案,以及监控 Token 用量的 Dashboard 和日志方法。
OpenClaw 多模型路由系统完整教程:支持的 30+ 模型提供商全览(Anthropic/OpenAI/Gemini/Ollama/OpenRouter/DeepSeek/Qwen/GLM 等)、provider/model 格式的模型指定方式、按渠道/Agent/任务类型设置不同默认模型、Model Failover 故障转移配置(主模型失败自动切换备用模型)、Claude Max API Proxy 接入方式、本地模型(Ollama/vLLM)与云端模型混用策略,以及 Token 限制和费用控制实践。
OpenClaw 企业内网部署的完整方案:多用户架构设计(每人独立 Gateway vs 共享 Gateway 多 Agent)、allowedUsers 和 allowFrom 白名单配置、基于角色的权限控制、内网安全加固(沙箱隔离/exec 权限限制/网络出口控制)、与企业 SSO 集成的思路、审计日志配置、高可用部署(多实例/负载均衡/状态同步)、以及在完全内网环境(无公网)下部署本地模型(Ollama)的完整步骤。
OpenClaw 中文用户专属指南:国内访问 Claude API 的合规方式、中文 SOUL.md 写作要点、推荐的中文 AI 模型配置(Gemini/Ollama 中文模型)、Telegram Bot 在国内的使用注意事项、QQ 机器人配置替代方案、飞书/微信群集成思路、中文内容的 Token 消耗优化,以及活跃的中文 OpenClaw 社区资源。
OpenClaw 多模型配置完整教程:支持的 AI 提供商(Anthropic/OpenAI/Google/Ollama/AWS Bedrock)、config.json 配置方式、按会话切换模型、按任务路由模型、本地 Ollama 私有化部署,以及不同模型的成本和能力对比选择策略。
OpenClaw 全部支持的 AI 模型提供商汇总:Anthropic Claude、OpenAI、Ollama 本地模型、OpenRouter 聚合、Cloudflare AI Gateway、LiteLLM 统一网关、vLLM 高性能推理、GitHub Copilot,以及国内的通义千问、MiniMax、Kimi、文心、GLM 等,含多提供商故障转移配置。
OpenClaw Session 压缩机制深度解析:Compaction 与 Session Pruning 的区别、自动压缩触发条件、identifierPolicy 配置、为压缩单独指定模型(支持本地 Ollama)、手动 /compact 命令用法,以及 OpenAI 服务端压缩与本地压缩的协同工作原理。
OpenClaw 20+ 模型提供商配置完全指南:Anthropic(API Key + OAuth)、OpenAI、OpenRouter 统一接口、Ollama 本地离线模型、Venice AI 隐私推荐、Amazon Bedrock、LiteLLM 统一网关,以及模型故障转移和 per-Agent 模型配置。
本站所有文章均由 OpenClaw 自动采集与更新,仅供学习和参考。如有侵权,请联系管理员删除。
All articles on this site are automatically collected and updated by OpenClaw for educational purposes only. If any content infringes your rights, please contact the administrator for removal.