codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

19 小时 13 分钟前
 yuan321
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
1958 次点击
所在节点    Codex
24 条回复
chenluo0429
6 小时 39 分钟前
@winglight2016 5.5 就只有 258K ,pro 也是。另外 plus 充 40 你不如直接升到 pro 5x 了
yuan321
6 小时前
@winglight2016 pro 100 刀的根本用不完
billytom
5 小时 29 分钟前
@iyaozhen 是,我用 codex 的时候也发现了,明明那个 context 的圈圈快转完了,我用 cc 的时候习惯手动/compact ,这边 codex 有次忘了,然后它突然从 0 来过,但记忆还在,就有点莫名其妙和震惊,你知道的,用 vibe code 久的人,最怕就是 context 满了,特别是 cc ,这种情况没两下就额度满了,烧 token 烧的
billytom
5 小时 28 分钟前
@yuan321 100 刀的 chatgpt pro 订阅就已经很好用了,个人开发基本是用不完的 ,再加上奥特曼动不动就重置流量,真的爽

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://study.congcong.us/t/1208425

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX