V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
yuan321
V2EX  ›  Codex

codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

  •  
  •   yuan321 · 16 小时 45 分钟前 · 1922 次点击
    只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
    24 条回复    2026-04-25 23:33:06 +08:00
    beimenjun
        1
    beimenjun  
    PRO
       16 小时 37 分钟前 via iPhone
    关键 5.4 模型你强行调出 1M ,使用起来因为命中率不高,其实表现也就那样。
    yuan321
        2
    yuan321  
    OP
       16 小时 32 分钟前
    上下文确实和 claude code 有比较大的差距
    sampeng
        3
    sampeng  
       16 小时 31 分钟前 via iPhone
    codex 的 compact 我觉得比 cc 的聪明
    neteroster
        4
    neteroster  
       16 小时 22 分钟前
    1. codex 的 5.5 没有 1M ,API 才有,大概率成本考量。Tibo ( OpenAI Codex 负责人) X 上说后续会提高上下文。
    2. codex 的 compact 很强
    xubeiyou
        5
    xubeiyou  
       16 小时 10 分钟前
    他这个不是 pro 用不起啊 一下子 就没了。。。。
    lihanst
        6
    lihanst  
       16 小时 0 分钟前
    5.4 的 1m 上下文性能退化严重
    salor
        7
    salor  
       15 小时 19 分钟前
    1m 上下文有什么用呢,600k 上下文就已经分不清计划模式了,让执行上面的方案一个劲的重复方案就是不执行,复现很多次了。通常超过 400k 上下文就要开新对话了,不然生成的内容真信不过。
    yuan321
        8
    yuan321  
    OP
       15 小时 17 分钟前
    一般 compact 几次需要从开对话?
    zisen
        9
    zisen  
       15 小时 4 分钟前
    codex 里面的 5.5 是 400k ,api 调用是 1M
    yuan321
        10
    yuan321  
    OP
       15 小时 1 分钟前
    @zisen 我设置为 400k ,codex 说本地实际只有 256k ,并不能达到 400k
    lifeintools
        11
    lifeintools  
       15 小时 0 分钟前
    还真没注意到这个事。我以为默认就是 1M
    billytom
        12
    billytom  
       11 小时 34 分钟前
    请教下 codex 的 compact 需要像 cc 那样自己感觉长了就/compact 一下还是说 codex 它到了聊天 context 顶会自动压缩的?
    AEDaydreamer
        13
    AEDaydreamer  
       11 小时 29 分钟前
    1.compact 非常好用
    2.但是这个上下文确实小了,不免让人不放心
    总体就是长 thread 用起来心理上很纠结但是生成的内容貌似还能接受.
    zisen
        14
    zisen  
       10 小时 21 分钟前
    @yuan321 好吧,我看 openai blog 写的 In Codex, GPT‑5.5 is available for Plus, Pro, Business, Enterprise, Edu, and Go plans with a 400K context window. GPT‑5.5 is also available in Fast mode, generating tokens 1.5x faster for 2.5x the cost.

    https://openai.com/index/introducing-gpt-5-5/
    yuan321
        15
    yuan321  
    OP
       9 小时 30 分钟前
    @zisen 实际最大还是 256 ,设置 400 并不会生效。128k 是输出的大小
    winglight2016
        16
    winglight2016  
       7 小时 24 分钟前
    官网上有标明不同订阅等级,不同模型,context 大小是不一样的,plus 的 5.5 标明了是 256k 。

    另外,5.5 似乎非常贵,我刚充了 40 刀 1000credits ,问了两次居然就用完了,好像碰到诈骗了一样。
    yuan321
        17
    yuan321  
    OP
       6 小时 9 分钟前
    @winglight2016 你为啥不用订阅。。。
    nash
        18
    nash  
       6 小时 2 分钟前
    5.5 特么跟纳智捷一样,用不起
    iyaozhen
        19
    iyaozhen  
       5 小时 8 分钟前
    @billytom 自动的。codex 的压缩效果独一档
    winglight2016
        20
    winglight2016  
       4 小时 24 分钟前
    @yuan321 你的额度用不完的吗?
    chenluo0429
        21
    chenluo0429  
       4 小时 11 分钟前 via Android
    @winglight2016 5.5 就只有 258K ,pro 也是。另外 plus 充 40 你不如直接升到 pro 5x 了
    yuan321
        22
    yuan321  
    OP
       3 小时 31 分钟前
    @winglight2016 pro 100 刀的根本用不完
    billytom
        23
    billytom  
       3 小时 1 分钟前
    @iyaozhen 是,我用 codex 的时候也发现了,明明那个 context 的圈圈快转完了,我用 cc 的时候习惯手动/compact ,这边 codex 有次忘了,然后它突然从 0 来过,但记忆还在,就有点莫名其妙和震惊,你知道的,用 vibe code 久的人,最怕就是 context 满了,特别是 cc ,这种情况没两下就额度满了,烧 token 烧的
    billytom
        24
    billytom  
       3 小时 0 分钟前
    @yuan321 100 刀的 chatgpt pro 订阅就已经很好用了,个人开发基本是用不完的 ,再加上奥特曼动不动就重置流量,真的爽
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   1039 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 60ms · UTC 18:33 · PVG 02:33 · LAX 11:33 · JFK 14:33
    ♥ Do have faith in what you're doing.