Skip to content

配置 GPT-5.4 模型教程

重要计费提示

⚠️ GPT-5.4 模型计费规则:当上下文输入超过 274k tokens 时,会按照 2 倍输入 + 1.5 倍输出 的费率计费。请注意控制上下文大小以优化成本。

本教程将指导你如何在 Codex CLI 中配置和使用 GPT-5.4 模型。

什么是 GPT-5.4?

GPT-5.4 是最新的大语言模型,具有以下特点:

  • 1M tokens 上下文窗口:支持超长上下文处理
  • 高推理能力:适合复杂的代码分析和生成任务
  • 自动压缩优化:配置为 OpenAI 兼容模式可获得更好的上下文压缩效果

配置步骤

1. 找到配置文件位置

根据你的操作系统,配置文件位置如下:

Windows

C:\Users\你的用户名\.config\codex\config.toml

macOS / Linux

~/.config/codex/config.toml

快速打开配置文件

你可以在终端中运行以下命令直接打开配置文件:

Windows (PowerShell)

powershell
notepad $env:USERPROFILE\.config\codex\config.toml

macOS / Linux

bash
nano ~/.config/codex/config.toml
# 或使用你喜欢的编辑器
code ~/.config/codex/config.toml  # VS Code
vim ~/.config/codex/config.toml   # Vim

2. 修改模型配置

config.toml 文件中,找到或添加以下配置:

toml
# 模型配置
model_provider = "codex-for-me"
model = "gpt-5.4"
model_reasoning_effort = "high"
disable_response_storage = false
max_context = 1000000               # 1M 上下文
context_compact_limit = 800000      # 80% 时触发压缩

配置说明

  • model_provider: 指定使用的模型提供商(这里是 codex-for-me)
  • model: 模型名称,设置为 gpt-5.4
  • model_reasoning_effort: 推理强度,设置为 high 以获得最佳性能
  • disable_response_storage: 是否禁用响应存储,false 表示启用
  • max_context: 最大上下文长度(1M tokens)
  • context_compact_limit: 上下文压缩触发阈值(80 万 tokens)

3. 配置模型提供商

在同一个 config.toml 文件中,添加或修改模型提供商配置:

toml
[model_providers.codex-for-me]
name = "openai"
base_url = "https://api-vip.codex-for.me/v1"
wire_api = "responses"
requires_openai_auth = true

配置说明

  • name: 重要! 设置为 "openai" 可以获得更好的上下文压缩效果
  • base_url: Codex API 服务地址
  • wire_api: API 协议类型
  • requires_openai_auth: 需要 OpenAI 格式的认证

为什么要设置 name = "openai"?

name 设置为 "openai" 可以让 Codex CLI 使用 OpenAI 兼容的上下文压缩算法,这样可以更高效地管理长上下文,减少不必要的 token 消耗。

4. 完整配置示例

以下是一个完整的 config.toml 配置示例:

toml
# 基本配置
model_provider = "codex-for-me"
model = "gpt-5.4"
model_reasoning_effort = "high"
disable_response_storage = false
max_context = 1000000
context_compact_limit = 800000

# 模型提供商配置
[model_providers.codex-for-me]
name = "openai"
base_url = "https://api-vip.codex-for.me/v1"
wire_api = "responses"
requires_openai_auth = true

5. 保存并重启

  1. 保存 config.toml 文件
  2. 如果 Codex CLI 正在运行,请退出并重新启动
  3. 运行 codex 命令开始使用 GPT-5.4 模型
bash
codex

使用建议

上下文管理

由于 GPT-5.4 支持 1M 上下文,你可以:

  • 一次性处理大型代码库
  • 进行长时间的对话而不丢失上下文
  • 分析复杂的多文件项目

但请注意:

  • 超过 274k tokens 后计费会增加(2 倍输入 + 1.5 倍输出)
  • 建议设置 context_compact_limit = 800000 以在达到 80% 时自动压缩
  • 对于不需要超长上下文的任务,可以适当降低 max_context

推理强度设置

model_reasoning_effort 参数控制模型的推理深度:

  • "high": 最高推理能力,适合复杂任务(推荐)
  • "medium": 中等推理能力,平衡性能和速度
  • "low": 快速响应,适合简单任务

常见问题

Q: 如何查看当前使用的模型?

A: 启动 Codex CLI 后,在对话中询问 "你是什么模型?" 或查看启动信息。

Q: 配置后没有生效怎么办?

A: 请检查:

  1. 配置文件路径是否正确
  2. TOML 语法是否正确(注意引号和等号)
  3. 是否重启了 Codex CLI
  4. API Key 是否有效且有余额

Q: 如何切换回其他模型?

A: 修改 config.toml 中的 model 字段为其他模型名称,如:

  • model = "gpt-5.3-codex"
  • model = "gpt-5.2"
  • model = "claude-sonnet-4"

Q: 上下文压缩是如何工作的?

A: 当对话上下文达到 context_compact_limit(默认 80 万 tokens)时,Codex CLI 会自动压缩历史对话,保留重要信息,丢弃冗余内容,以保持在 1M 上下文限制内。

Q: 如何优化成本?

A: 建议:

  1. 对于简单任务,使用较小的 max_context 值(如 200000)
  2. 定期清理对话历史(使用 /clear 命令)
  3. 避免在单次对话中加载过多文件
  4. 注意 274k tokens 的计费阈值

下一步


需要帮助?

如果在配置过程中遇到问题,请:

  1. 检查 常见问题 部分
  2. 访问 Codex 控制台 查看账户状态
  3. 联系技术支持获取帮助