[分享] Codex + GPT 5.4 火力全开配置调优

3 月 14 日
 apibox

自从 OpenAI 出来 gpt-5.4 模型后 Codex 的使用确实有了极大的提升,我个人调整配置后开发同一个需求对比使用 Claude Code + Claude Opus 4.6 还更快一点完成。

本来从 gpt-5.3-codex 的默认配置直接使用,但发现上下文一下就不够了,对于大一点的工程来说 特别难受。

后来查了下网上的资料,说 gpt-5.4 的 1M 上下文的能力要自己主动配置开启,晕。

下面放出我自己使用 Codex 的一些配置,算是抛砖引玉,不一定是最佳实践,有不同的欢迎指正。

打开 ~/.codex/config.toml 文件

project_doc_fallback_filenames = ["CLAUDE.md"] # agents.md 找不到,则找 claude.md ,和 Claude Code 使用同一份约束

model = "gpt-5.4"
review_model = "gpt-5.4" # 默认 "gpt-5.2-codex"

model_provider = "apibox" # 改成你自己的中转站名
model_reasoning_effort = "xhigh" # 思考强度超高

model_context_window = 1000000 # 模型上下文窗口大小,默认 1000000 ( 1M ) for gpt-5.4
model_auto_compact_token_limit = 500000 # for gpt-5.4 虽然是 1M ,但是有效注意力不够,不建议开的太高


[model_providers.apibox]
name = "OpenAI" # 如果用的是中转站,建议把名字改成 OpenAI (注意大小写)命中缓存,省 token
base_url = "apibox.cc/v1" # 改成你自己的中转站 API 地址哦
wire_api = "responses" 
requires_openai_auth = true

[features]
shell_tool = true # 启用 shell 工具。默认: true
apply_patch_freeform = true # 通过自由格式编辑路径包含 apply_patch (影响默认工具集)。默认: false
shell_snapshot = true # 启用 shell 快照功能。默认: false
undo = true # 启用 undo 功能。默认: true
unified_exec = true # 使用统一 PTY 执行工具
multi_agent = true
steer = true
prevent_idle_sleep = true
child_agents_md = true

memories = true # 开启记忆
sqlite = true # 可配可不配,随意
fast_mode = true # 必开,完全不同的体验,当然也会让 gpt-5.4 用量变 2 倍

[memories] # 强烈建议用新模型来总结 memories
consolidation_model = "gpt-5.4"
extract_model = "gpt-5.4"
# generate_memories = true # 默认 true
# use_memories = true # 默认 true ,表示把 memory_summary.md 注入 developer instructions
max_raw_memories_for_consolidation = 512
max_unused_days = 30 # 默认 30
max_rollout_age_days = 45 # 默认 30
# max_rollouts_per_startup = 16 # 默认 16
# min_rollout_idle_hours = 6 # 默认 6

小技巧:

model_auto_compact_token_limit 这个配置可以动态调整 当你的工程的会话上下文特别大的时候,你有不想开新的会话时。你可以先把这个配置改大,然后重新开启 VS Code 或者 cli ,这样就不会触发压缩了,可以继续聊下去。

7151 次点击
所在节点    程序员
27 条回复
lizhenda
3 月 24 日
加上这个配置,gpt-5.4 的回答就不会啰嗦了,建议加上

# Communication style for supported models. Allowed values: none | friendly | pragmatic
personality = "pragmatic"
apibox
3 月 25 日
@lizhenda #21 很棒哦!
lancelot1016
3 月 28 日
优秀的帖子顶起来
apibox
3 月 28 日
@lancelot1016 哈哈,感谢,我们的中转站内测了,有兴趣可以来试试。
地址: https://api.apibox.cc/
站内介绍帖子: https://study.congcong.us/t/1201876
superkite
4 月 27 日
256k 压缩一些不关键的上下文信息也够用了,改成 1m 上下文用到后面 token 消耗会很快吧,具体贵多少有人算过吗
apibox
4 月 28 日
@superkite 目前 Codex 使用 gpt-5.5 模型时,即使在配置里面设置了 1M 上下文也是无效的,需要等官方放开。
256k 配合压缩做些小任务其实也是够的,gpt-5.5 有人说消耗是 5.4 的 3 倍,我的感受不明显,不确定这说法是否正确。
superkite
4 月 28 日
@apibox 这几天用下来的体感 5.5 消耗差不多是 5.4 的 3-5 倍

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://study.congcong.us/t/1198268

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX