codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

17 小时 59 分钟前
 yuan321
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
1942 次点击
所在节点    Codex
24 条回复
beimenjun
17 小时 51 分钟前
关键 5.4 模型你强行调出 1M ,使用起来因为命中率不高,其实表现也就那样。
yuan321
17 小时 46 分钟前
上下文确实和 claude code 有比较大的差距
sampeng
17 小时 45 分钟前
codex 的 compact 我觉得比 cc 的聪明
neteroster
17 小时 36 分钟前
1. codex 的 5.5 没有 1M ,API 才有,大概率成本考量。Tibo ( OpenAI Codex 负责人) X 上说后续会提高上下文。
2. codex 的 compact 很强
xubeiyou
17 小时 24 分钟前
他这个不是 pro 用不起啊 一下子 就没了。。。。
lihanst
17 小时 14 分钟前
5.4 的 1m 上下文性能退化严重
salor
16 小时 33 分钟前
1m 上下文有什么用呢,600k 上下文就已经分不清计划模式了,让执行上面的方案一个劲的重复方案就是不执行,复现很多次了。通常超过 400k 上下文就要开新对话了,不然生成的内容真信不过。
yuan321
16 小时 31 分钟前
一般 compact 几次需要从开对话?
zisen
16 小时 18 分钟前
codex 里面的 5.5 是 400k ,api 调用是 1M
yuan321
16 小时 15 分钟前
@zisen 我设置为 400k ,codex 说本地实际只有 256k ,并不能达到 400k
lifeintools
16 小时 14 分钟前
还真没注意到这个事。我以为默认就是 1M
billytom
12 小时 48 分钟前
请教下 codex 的 compact 需要像 cc 那样自己感觉长了就/compact 一下还是说 codex 它到了聊天 context 顶会自动压缩的?
AEDaydreamer
12 小时 43 分钟前
1.compact 非常好用
2.但是这个上下文确实小了,不免让人不放心
总体就是长 thread 用起来心理上很纠结但是生成的内容貌似还能接受.
zisen
11 小时 35 分钟前
@yuan321 好吧,我看 openai blog 写的 In Codex, GPT‑5.5 is available for Plus, Pro, Business, Enterprise, Edu, and Go plans with a 400K context window. GPT‑5.5 is also available in Fast mode, generating tokens 1.5x faster for 2.5x the cost.

https://openai.com/index/introducing-gpt-5-5/
yuan321
10 小时 44 分钟前
@zisen 实际最大还是 256 ,设置 400 并不会生效。128k 是输出的大小
winglight2016
8 小时 38 分钟前
官网上有标明不同订阅等级,不同模型,context 大小是不一样的,plus 的 5.5 标明了是 256k 。

另外,5.5 似乎非常贵,我刚充了 40 刀 1000credits ,问了两次居然就用完了,好像碰到诈骗了一样。
yuan321
7 小时 23 分钟前
@winglight2016 你为啥不用订阅。。。
nash
7 小时 16 分钟前
5.5 特么跟纳智捷一样,用不起
iyaozhen
6 小时 22 分钟前
@billytom 自动的。codex 的压缩效果独一档
winglight2016
5 小时 38 分钟前
@yuan321 你的额度用不完的吗?

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://study.congcong.us/t/1208425

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX