1
beimenjun PRO 关键 5.4 模型你强行调出 1M ,使用起来因为命中率不高,其实表现也就那样。
|
2
yuan321 OP 上下文确实和 claude code 有比较大的差距
|
3
sampeng 16 小时 31 分钟前 via iPhone
codex 的 compact 我觉得比 cc 的聪明
|
4
neteroster 16 小时 22 分钟前
1. codex 的 5.5 没有 1M ,API 才有,大概率成本考量。Tibo ( OpenAI Codex 负责人) X 上说后续会提高上下文。
2. codex 的 compact 很强 |
5
xubeiyou 16 小时 10 分钟前
他这个不是 pro 用不起啊 一下子 就没了。。。。
|
6
lihanst 16 小时 0 分钟前
5.4 的 1m 上下文性能退化严重
|
7
salor 15 小时 19 分钟前
1m 上下文有什么用呢,600k 上下文就已经分不清计划模式了,让执行上面的方案一个劲的重复方案就是不执行,复现很多次了。通常超过 400k 上下文就要开新对话了,不然生成的内容真信不过。
|
8
yuan321 OP 一般 compact 几次需要从开对话?
|
9
zisen 15 小时 4 分钟前
codex 里面的 5.5 是 400k ,api 调用是 1M
|
11
lifeintools 15 小时 0 分钟前
还真没注意到这个事。我以为默认就是 1M
|
12
billytom 11 小时 34 分钟前
请教下 codex 的 compact 需要像 cc 那样自己感觉长了就/compact 一下还是说 codex 它到了聊天 context 顶会自动压缩的?
|
13
AEDaydreamer 11 小时 29 分钟前
1.compact 非常好用
2.但是这个上下文确实小了,不免让人不放心 总体就是长 thread 用起来心理上很纠结但是生成的内容貌似还能接受. |
14
zisen 10 小时 21 分钟前
@yuan321 好吧,我看 openai blog 写的 In Codex, GPT‑5.5 is available for Plus, Pro, Business, Enterprise, Edu, and Go plans with a 400K context window. GPT‑5.5 is also available in Fast mode, generating tokens 1.5x faster for 2.5x the cost.
https://openai.com/index/introducing-gpt-5-5/ |
16
winglight2016 7 小时 24 分钟前
官网上有标明不同订阅等级,不同模型,context 大小是不一样的,plus 的 5.5 标明了是 256k 。
另外,5.5 似乎非常贵,我刚充了 40 刀 1000credits ,问了两次居然就用完了,好像碰到诈骗了一样。 |
17
yuan321 OP @winglight2016 你为啥不用订阅。。。
|
18
nash 6 小时 2 分钟前
5.5 特么跟纳智捷一样,用不起
|
20
winglight2016 4 小时 24 分钟前
@yuan321 你的额度用不完的吗?
|
21
chenluo0429 4 小时 11 分钟前 via Android
@winglight2016 5.5 就只有 258K ,pro 也是。另外 plus 充 40 你不如直接升到 pro 5x 了
|
22
yuan321 OP @winglight2016 pro 100 刀的根本用不完
|