V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
lynn1su
V2EX  ›  程序员

腾讯云今天也发布 coding plan,大家觉得怎么样?实测发现可能有量化,但是多模态没阉割

  •  
  •   lynn1su · 1 天前 · 2813 次点击






    目前买了 pro ,体验了下,发现混元模型有点一般,kimi2.5 和 glm5 没有像百度千帆一样阉割图片理解,还有思考速度过快了,比 kimi 官方还快,我怀疑有量化
    32 条回复    2026-03-06 20:13:07 +08:00
    lynn1su
        1
    lynn1su  
    OP
       1 天前
    目前我阿里百炼和百度千帆和火山方舟和腾讯云的买齐了
    1.阿里的感觉 Qwen3.5plus ,一般在 agent 上,而且能明显感觉到 qos ,感觉第三方模型有量化,没有阉割多模态
    2.腾讯云,可能今天才发布,每天 300 份,比较丝滑,但是思考时间过快,比 kimi 官方的 2.5 还快,怀疑量化了,没有阉割多模态
    3.百度千帆,体感很差,动不动就返回安全过滤拒绝回答。明明是正常提问,kimi2.5 阉割多模态。量化感觉有
    4.火山方舟,感觉有量化,反应速度中等
    lynn1su
        2
    lynn1su  
    OP
       1 天前

    lynn1su
        3
    lynn1su  
    OP
       1 天前
    补充一点,百度千帆的模型阉割了上下文,实测 kimi2.5 原来是 256K ,百度阉割到 203K
    wsseo
        4
    wsseo  
       1 天前
    腾讯云的地址多少?
    lynn1su
        5
    lynn1su  
    OP
       1 天前
    lynn1su
        6
    lynn1su  
    OP
       1 天前
    智谱的没抢到过
    lynn1su
        7
    lynn1su  
    OP
       1 天前
    大家怎么看
    cat9life
        8
    cat9life  
       1 天前
    没有去用,腾讯的算力应该能保证吧
    huibosa
        9
    huibosa  
       1 天前
    前几天腾讯云先上了第三方大模型的 api 调用,这几天用了 9 千万 token 了,速度比较满意,但 kimi ,glm ,和 minimax 都没有多模态

    coding plan 还没试过,明天抢一个看看
    PerFectTime
        10
    PerFectTime  
       1 天前
    花钱还把你的数据拿去训练,算了吧
    brucedone
        11
    brucedone  
       1 天前
    混元,哈哈哈,笑屎人了
    freefcw
        12
    freefcw  
       1 天前
    先看智力在线不,再看速度怎么样。。。反正我现在薅的摩尔线程智力还是在线的
    BurNIng1988
        13
    BurNIng1988  
       1 天前
    @lynn1su 我在想这个场景会不会是提前预制了一部分百度自己的 prompt 或者 skill 之类的
    lynn1su
        14
    lynn1su  
    OP
       1 天前
    发现腾讯云一个问题:

    这是提问:
    我有一个问题:
    世人修仙求道,皆在求一个‘有’。
    求有名,求有功,求有寿,求在这世间留下万古不灭的痕迹。
    他们怕死,更怕死了之后被人遗忘,所以要塑金身,要修庙宇,要著书立说。
    大道无形,生育天地;大道无情,运行日月;大道无名,长养万物。
    当一个人,把自己的‘有’全盘散尽,连名字都归于了‘无’。
    那这满天下的因果,这万世不灭的薪火,究竟算是他的‘无’,还是他的‘有’?


    这条百度都没有安全过滤的
    lynn1su
        15
    lynn1su  
    OP
       23 小时 26 分钟前
    @huibosa #9 coding plan 是多模态的
    lynn1su
        16
    lynn1su  
    OP
       23 小时 24 分钟前
    @freefcw #12 腾讯工作人员确认是满血模型

    X2S2
        17
    X2S2  
       23 小时 16 分钟前
    400 了。API Error: 400 了
    lynn1su
        18
    lynn1su  
    OP
       23 小时 8 分钟前
    @X2S2 #17 400 ?我这倒是正常的
    cc9910
        19
    cc9910  
       22 小时 59 分钟前
    我第一次见开了 api,又限制只能用编程工具上的
    spike0100
        20
    spike0100  
       22 小时 48 分钟前 via iPhone
    这价格是抄袭的阿里云 coding plan 吧
    106npo
        21
    106npo  
       22 小时 44 分钟前
    @cc9910 哪家不都是这样
    lynn1su
        22
    lynn1su  
    OP
       22 小时 35 分钟前
    @cc9910 #19 四家都这样写啊
    SSang
        23
    SSang  
       22 小时 32 分钟前
    这截图我还以为是从阿里那边截过来的。
    SSang
        24
    SSang  
       22 小时 30 分钟前
    阿里的我感觉有 Bug ,我身边很多使用阿里的都出现相同的问题。其他几家不知道怎么样

    ref: https://study.congcong.us/t/1196364
    arayinfree
        25
    arayinfree  
       22 小时 27 分钟前
    3. 数据使用授权:您在使用 Coding Plan 期间,模型输入及模型生成的内容将用于服务改进与模型优化。若您停止使用 Coding Plan ,将自动终止后续数据授权,终止授权的范围不涵盖此前已授权使用的相关数据。

    是不是都这样
    bbao
        26
    bbao  
       22 小时 21 分钟前
    为什么会有人来回去测试呀,腾讯的大模型和百度的文心一言真的不分高低,烂的一批; kimi 也烂的一批,ds 现在也烂的一批;
    lynn1su
        27
    lynn1su  
    OP
       22 小时 16 分钟前
    @bbao #26 就想试试谁家没有阉割
    不过 glm5 还是可以的
    Freakr
        28
    Freakr  
       21 小时 44 分钟前
    @arayinfree 阿里云国际版和智谱的国际版协议里没有这一条
    Freakr
        29
    Freakr  
       21 小时 43 分钟前
    @Freakr 但是这两家国际版价格都比国内版高
    lynn1su
        30
    lynn1su  
    OP
       21 小时 37 分钟前
    @Freakr #28 治不了洋人还治不了你?
    jqknono
        31
    jqknono  
       19 小时 10 分钟前
    https://jqknono.github.io/coding-plans-for-copilot/

    我搜罗了一些海外提供的开源模型套餐, 试过 chutes, 算能用.

    openrouter 有公开数据展示延迟和 token 速率.

    ![]( )
    lynn1su
        32
    lynn1su  
    OP
       18 小时 51 分钟前
    @jqknono 支持
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2861 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 25ms · UTC 07:04 · PVG 15:04 · LAX 23:04 · JFK 02:04
    ♥ Do have faith in what you're doing.