CRS(Claude Relay Service)通过 /openai 端点兼容 OpenAI 接口格式,
让 Codex CLI 可以无缝接入并使用 gpt-5.1-codex-max 等高级模型进行拼车共享。
前置条件
- 已部署 CRS 服务并获取 API Key
- 本地已安装 Codex CLI(
npm install -g @openai/codex) - 理解基本的配置文件操作
配置步骤
Step 1:编辑 config.toml
Codex 的主配置文件位于 ~/.codex/config.toml,
在文件开头(最顶部)添加以下内容:
model_provider = "crs"
model = "gpt-5.1-codex-max"
model_reasoning_effort = "high"
disable_response_storage = true
preferred_auth_method = "apikey"
[model_providers.crs]
name = "crs"
base_url = "http://你的服务器IP:3000/openai"
wire_api = "responses"
requires_openai_auth = true参数说明:
| 参数 | 值 | 说明 |
|---|---|---|
model_provider | "crs" | 指定使用自定义的 crs 提供商 |
model | "gpt-5.1-codex-max" | 使用的模型名称 |
model_reasoning_effort | "high" | 推理强度(low/medium/high),high 最慢最准 |
disable_response_storage | true | 不在服务端存储响应(隐私保护) |
preferred_auth_method | "apikey" | 使用 API Key 认证 |
wire_api | "responses" | 使用 OpenAI responses API 格式 |
requires_openai_auth | true | 启用 OpenAI 格式的认证头 |
Step 2:配置 API Key
编辑 ~/.codex/auth.json(不存在则新建):
{
"OPENAI_API_KEY": "你在CRS后台创建的API密钥"
}⚠️ 注意:这里填的是 CRS 后台生成的密钥,不是 OpenAI 官方的 API Key。
Step 3:验证配置
# 查看配置是否正确加载
codex config show
# 测试连接
codex "你好,说一句话测试连接"Nginx 反向代理必读
如果你的 CRS 前面有 Nginx,必须在 nginx.conf 的 http 块加这一行:
http {
underscores_in_headers on; # ← 必须!否则 Codex 粘性会话失效
server {
# 你的其他配置...
}
}原因:Codex CLI 使用 session_id 这类带下划线的请求头实现粘性会话(保证同一对话路由到同一个 Claude 账号)。Nginx 默认丢弃带下划线的 Header,导致多账号轮换时对话上下文丢失。
reasoning_effort 参数调优
# 快速响应(简单任务)
model_reasoning_effort = "low"
# 平衡(日常编程)
model_reasoning_effort = "medium"
# 最强推理(复杂架构/难题)
model_reasoning_effort = "high"建议日常用 medium,遇到复杂问题时临时改 high。
使用 Codex
# 交互模式
codex
# 单次任务
codex "帮我写一个 Python 爬虫抓取 HN 首页"
# 在项目中使用
cd ~/my-project
codex "重构这个函数,使用 async/await"gpt-5.1-codex-max 实际体验
通过 CRS 使用 gpt-5.1-codex-max 的主要优势:
- 编程能力强:专为代码生成优化,比通用 GPT 模型更擅长写代码
- 推理深度高:配合
reasoning_effort = "high"能解决复杂工程问题 - 拼车成本低:通过 CRS 多人分摊,远比单独订阅便宜
来源:CRS GitHub 项目 - github.com/Wei-Shaw/claude-relay-service