Appearance
配置 GPT-5.4 模型教程
重要计费提示
⚠️ GPT-5.4 模型计费规则:当上下文输入超过 274k tokens 时,会按照 2 倍输入 + 1.5 倍输出 的费率计费。请注意控制上下文大小以优化成本。
本教程将指导你如何在 Codex CLI 中配置和使用 GPT-5.4 模型。
什么是 GPT-5.4?
GPT-5.4 是最新的大语言模型,具有以下特点:
- 1M tokens 上下文窗口:支持超长上下文处理
- 高推理能力:适合复杂的代码分析和生成任务
- 自动压缩优化:配置为 OpenAI 兼容模式可获得更好的上下文压缩效果
配置步骤
1. 找到配置文件位置
根据你的操作系统,配置文件位置如下:
Windows:
C:\Users\你的用户名\.config\codex\config.tomlmacOS / Linux:
~/.config/codex/config.toml快速打开配置文件
你可以在终端中运行以下命令直接打开配置文件:
Windows (PowerShell):
powershell
notepad $env:USERPROFILE\.config\codex\config.tomlmacOS / Linux:
bash
nano ~/.config/codex/config.toml
# 或使用你喜欢的编辑器
code ~/.config/codex/config.toml # VS Code
vim ~/.config/codex/config.toml # Vim2. 修改模型配置
在 config.toml 文件中,找到或添加以下配置:
toml
# 模型配置
model_provider = "codex-for-me"
model = "gpt-5.4"
model_reasoning_effort = "high"
disable_response_storage = false
max_context = 1000000 # 1M 上下文
context_compact_limit = 800000 # 80% 时触发压缩配置说明:
model_provider: 指定使用的模型提供商(这里是 codex-for-me)model: 模型名称,设置为gpt-5.4model_reasoning_effort: 推理强度,设置为high以获得最佳性能disable_response_storage: 是否禁用响应存储,false表示启用max_context: 最大上下文长度(1M tokens)context_compact_limit: 上下文压缩触发阈值(80 万 tokens)
3. 配置模型提供商
在同一个 config.toml 文件中,添加或修改模型提供商配置:
toml
[model_providers.codex-for-me]
name = "openai"
base_url = "https://api-vip.codex-for.me/v1"
wire_api = "responses"
requires_openai_auth = true配置说明:
name: 重要! 设置为"openai"可以获得更好的上下文压缩效果base_url: Codex API 服务地址wire_api: API 协议类型requires_openai_auth: 需要 OpenAI 格式的认证
为什么要设置 name = "openai"?
将 name 设置为 "openai" 可以让 Codex CLI 使用 OpenAI 兼容的上下文压缩算法,这样可以更高效地管理长上下文,减少不必要的 token 消耗。
4. 完整配置示例
以下是一个完整的 config.toml 配置示例:
toml
# 基本配置
model_provider = "codex-for-me"
model = "gpt-5.4"
model_reasoning_effort = "high"
disable_response_storage = false
max_context = 1000000
context_compact_limit = 800000
# 模型提供商配置
[model_providers.codex-for-me]
name = "openai"
base_url = "https://api-vip.codex-for.me/v1"
wire_api = "responses"
requires_openai_auth = true5. 保存并重启
- 保存
config.toml文件 - 如果 Codex CLI 正在运行,请退出并重新启动
- 运行
codex命令开始使用 GPT-5.4 模型
bash
codex使用建议
上下文管理
由于 GPT-5.4 支持 1M 上下文,你可以:
- 一次性处理大型代码库
- 进行长时间的对话而不丢失上下文
- 分析复杂的多文件项目
但请注意:
- 超过 274k tokens 后计费会增加(2 倍输入 + 1.5 倍输出)
- 建议设置
context_compact_limit = 800000以在达到 80% 时自动压缩 - 对于不需要超长上下文的任务,可以适当降低
max_context值
推理强度设置
model_reasoning_effort 参数控制模型的推理深度:
"high": 最高推理能力,适合复杂任务(推荐)"medium": 中等推理能力,平衡性能和速度"low": 快速响应,适合简单任务
常见问题
Q: 如何查看当前使用的模型?
A: 启动 Codex CLI 后,在对话中询问 "你是什么模型?" 或查看启动信息。
Q: 配置后没有生效怎么办?
A: 请检查:
- 配置文件路径是否正确
- TOML 语法是否正确(注意引号和等号)
- 是否重启了 Codex CLI
- API Key 是否有效且有余额
Q: 如何切换回其他模型?
A: 修改 config.toml 中的 model 字段为其他模型名称,如:
model = "gpt-5.3-codex"model = "gpt-5.2"model = "claude-sonnet-4"
Q: 上下文压缩是如何工作的?
A: 当对话上下文达到 context_compact_limit(默认 80 万 tokens)时,Codex CLI 会自动压缩历史对话,保留重要信息,丢弃冗余内容,以保持在 1M 上下文限制内。
Q: 如何优化成本?
A: 建议:
- 对于简单任务,使用较小的
max_context值(如 200000) - 定期清理对话历史(使用
/clear命令) - 避免在单次对话中加载过多文件
- 注意 274k tokens 的计费阈值
下一步
- 了解更多 Codex CLI 功能:Codex CLI 文档
- 查看其他配置选项:配置文件说明
- 返回快速上手教程:Codex CLI 快速上手