V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
WangLiCha
V2EX  ›  程序员

国产 AI Coding Plan 现在选哪家比较好?

  •  
  •   WangLiCha · Mar 4 · 12380 views
    This topic created in 55 days ago, the information mentioned may be changed or developed.

    因为工作有合规需求,所以只能从国产 AI 中考虑了。

    年前看推荐用过 GLM ,试用了一个月,体验还不错。年后回来发现貌似风评急转直下,而且因为放假期间没续费,现在每天早上 10 点开放购买都瞬间清空,根本买不到了……

    现在暂时买了 MiniMax M2.5 试用,然后发现好像说营销力度大速度快但是本身也没那么聪明?

    所以现在选哪家比较好呢?听说 Kimi 好像又出了个还不错的,然后千问和豆包也有但是好像也没怎么听说人用。

    另外阿里云有一个代码方案打包套餐,那个怎么样?

    69 replies    2026-03-16 10:16:10 +08:00
    xensa
        1
    xensa  
       Mar 4
    国内算力还是不够火山和阿里的 coding plan 响应很慢(自家 qwen 系列模型速度貌似还行) ,qoder 和 codebuddy 里的响应倒是快一些,效果个人感觉 qoder>codebuddy
    wyntalgeer
        2
    wyntalgeer  
       Mar 4
    MiniMax
    raymonguo
        3
    raymonguo  
       Mar 4
    最近这周感觉 GLM 很快,不知道怎么回事
    SilentOrFight
        4
    SilentOrFight  
       Mar 4
    @xensa #1 国内版的 codebuddy GLM-5 深度思考时会随机输出乱码死掉
    akcode
        5
    akcode  
       Mar 4
    用 claude 和 minimax ,基于 word 报告模版生成 html ,claude 相似度 80%+,minimax 老是出现幻觉,相似度 50%-。立马把 minimax 退订了
    liaozzzzzz
        6
    liaozzzzzz  
       Mar 4 via Android
    有合规需求,那国产这些明确会拿你数据去训练的基本上别想用了
    jojopro
        7
    jojopro  
       Mar 4
    国产的全部是玩具 玩玩就好了 花钱搞生产 绝对后悔
    congyoubanmian
        8
    congyoubanmian  
       Mar 4
    kimi 在用 还行吧
    Sezxy
        9
    Sezxy  
       Mar 4
    @raymonguo #3 可能退费的人多了,算力没那么紧张了
    wat4me
        10
    wat4me  
       Mar 4
    我现在用的阿里云的 Coding Plan ,速度感觉还可以
    wu00
        11
    wu00  
       Mar 4
    通过 azure 购买 copilot 也合规,有发票
    Desdemor
        12
    Desdemor  
       Mar 4
    minimax 跟 claude 差的太大了,没办法还是古法编程算了
    jedeft
        13
    jedeft  
       Mar 4
    用的 2 天 Kimi code 还可以
    promely
        14
    promely  
       Mar 4 via iPhone
    智谱 10 点秒光,minimax 智力不行,kimi 额度少太贵,我现在白嫖白山云的,速度比联通、快手万擎、火山好太多了,现在送 450 元能用一段时间了:
    https://ai.baishan.com/auth/login?referralCode=UzVpjpQXQc
    doctorzry
        15
    doctorzry  
       Mar 4
    kimi 最近说是额度永久翻三倍,不过他内部的计费是黑盒,具体怎么翻三倍就是他说的算了
    kejinlu
        16
    kejinlu  
       Mar 4
    国产的话,GLM 吧,不推荐别的了。 当然目前 Claude Opus 4.6 强无敌
    GlobalNPC
        17
    GlobalNPC  
       Mar 4
    如果 GLM 算力足的话,GLM
    但是足不了一点
    sheepmon
        19
    sheepmon  
       Mar 4   ❤️ 1
    买了火山的试了试,感觉还是差太多了,现在用 codex 的 team 套餐 量大管饱 一个月也就几块钱
    xiangqiankan
        20
    xiangqiankan  
       Mar 4
    国产只推荐 GLM5
    catwalk
        21
    catwalk  
       Mar 4
    有些模型虽然不错,但是他选择不做人就没必要选它,更何况更多替代品
    wnay
        22
    wnay  
       Mar 4
    阿里的真的一言难尽
    waityan
        23
    waityan  
       Mar 4
    感谢 14 楼 我也来发一个,就是怎么我注册后有只有 150 的 https://ai.baishan.com/auth/login?referralCode=zzfWpQR69b
    wangcongming
        24
    wangcongming  
       Mar 4
    我用阿里的,qwen 模型太拉跨,glm5 巨慢, 现在用的 kimi2.5 还行
    xfxz
        25
    xfxz  
       Mar 4
    春节期间的 glm-5 用的真不错,现在要么 429 ,要么感觉降智了。暂时用 kimi k2.5 还行。
    Liqiniu
        26
    Liqiniu  
       Mar 4
    感谢 14 楼、22 楼,我看了下,注册后需要实名认证给 150 赠金,首次调用经人工审核后再给 300 赠金;也放个邀请码:
    https://ai.baishan.com/auth/login?referralCode=g9vR03AeIi
    xFrye
        27
    xFrye  
       Mar 4
    太太太慢了,我怀疑现在大部份处于超售状态,高峰期基本没眼看
    iomect
        28
    iomect  
       Mar 4 via iPhone
    只能选国内的话 唯有 GLM 了
    ferock
        29
    ferock  
    PRO
       Mar 4
    @raymonguo #3

    是的
    Cola98
        30
    Cola98  
       Mar 4
    MiniMax
    Vendettar
        31
    Vendettar  
       Mar 4
    @sheepmon codex 的 team 套餐量不大吧
    tt0411
        32
    tt0411  
       Mar 4
    上面几个发的白山云, 怎么就只支持 GLM 4.5 ...

    参考这个 https://ai.baishan.com/docs/docs/llm-api.html
    humbass
        33
    humbass  
       Mar 5
    @tt0411 有 glm 5 ,没贴出来而已。配置要自己来。4.5/4.6/4.7/5.0 都有。
    luochen1990
        34
    luochen1990  
       Mar 5
    @SilentOrFight 确实, 我也遇到了. 不知道啥情况, 难受.
    zlo309618100
        35
    zlo309618100  
       Mar 5
    glm-5 ,只有 5 ,不要用 4.6,4.7 ,还有 minimax-2.5
    Revenant
        36
    Revenant  
       Mar 5
    买过火山的 Coding Plan ,速度慢得一言难尽,模型还非常旧,只有 GLM-4.7 ,没有 MiniMax-M2.5 ,没有 Qwen-3.5 ,只有 Kimi-K2.5 ,还有它家主推的豆包,我订阅了之后还老给我打骚扰电话
    相比之下,价格同样的阿里百炼性价比就搞多了,第一是响应速度快,第二个是所有模型都是最新的,包含 GLM-4.7 ,MiniMax-M2.5 ,Qwen-3.5 ,Kimi-K2.5
    ByteCat
        37
    ByteCat  
       Mar 5
    百炼 Coding Plan 吧,刚出就买了,感觉性价比很高,和很多人不一样的体感,我感觉不慢啊 😂,配合 OpenCode 在用还可以除了 GLM-5 都至少有 70 tps 吧
    colinxu
        38
    colinxu  
       Mar 5
    白山智算的试了,可以白嫖 450 元赠金(实名认证 150 ,API 调用 300 ),我也发个邀请码 https://ai.baishan.com/auth/login?referralCode=a8nQE385sh
    pengyOne
        39
    pengyOne  
       Mar 5
    azure 的 gpt 也是合规的吧?
    TerryBlues
        40
    TerryBlues  
       Mar 5
    GLM 感觉总会搞点鸡贼动作,不太喜欢,即便是客观上有算力紧张的关系。

    MiniMax 性价比看上去还不错,不过还没用过。

    最近一直在用 K2.5 ,不得不说 KIMI 的代码体验还不错。至于数据拿去训练什么的,我只能说各家都彼此彼此吧,只是拿来写代码也不是啥大问题就是了。
    whoosy
        41
    whoosy  
       Mar 5
    国产全推沟里
    fbu11
        42
    fbu11  
       Mar 5
    白山智算好用个屁,楼上那几个纯为了用邀请码再白嫖点赠金
    国产现在首推 GLM
    ddczl
        43
    ddczl  
       Mar 5
    MiniMax 最便宜版本 29 一个月,我买了试试感觉还不错,至少我现在的工作它能帮我解决,极少数解决不了的,我复制问题给 Gemini 或者 chatgpt ,有解决方案了告诉它,用了一周,满足我差不多九成的需求,但想想它只要 29 一个月,就很香了。
    可能更强度的使用它不适合,但我还没有用到那种地步,目前我也是用在个人项目上,不像公司业务屎山
    junbaor
        44
    junbaor  
       Mar 5
    现在用的 minimax, 感觉还可以,相信 openclaw 作者的推荐。对比可以参考 https://codingplan.org
    akcode
        45
    akcode  
       Mar 5
    白山智算 2026-3-16 前可以白嫖 450 元赠金(实名认证 150 ,API 调用 300 ),16 后白嫖 150 ,我也发个邀请码 https://ai.baishan.com/auth/login?referralCode=6hWD7hnrru
    Alex6
        46
    Alex6  
       Mar 5
    3.16 日之前,白山智算可以白嫖 450 元赠金(实名认证 150 ,API 调用 300 )
    https://ai.baishan.com/auth/login?referralCode=g1PQ3lJgjE
    sheepmon
        47
    sheepmon  
       Mar 5
    @Vendettar 相比还是不少了,可能我本身的业务没那么复杂,基本没遇到限额,主要 gpt5.3 用来干活还是可以的
    adobe90
        48
    adobe90  
       Mar 5
    我也发个链接,3.16 日之前,白山智算可以白嫖 450 元赠金(实名认证 150 ,API 调用 300 )
    https://ai.baishan.com/auth/login?referralCode=YghffSQLrK
    ileeoyo
        49
    ileeoyo  
       Mar 5
    接力: https://ai.baishan.com/auth/login?referralCode=c7s2YlAItf
    注册送 150 ,调用 api 送 300 ,邀请送 200 。
    mcfever
        50
    mcfever  
       Mar 5
    codex ,其它的不用
    jokcylou
        51
    jokcylou  
       Mar 5 via Android
    @raymonguo 扩容了,而且退了一堆 lite plan
    jokcylou
        52
    jokcylou  
       Mar 5 via Android
    @jojopro 还活在两年前呢🤡
    tchivs
        53
    tchivs  
       Mar 5
    阿里云百炼
    onedge
        54
    onedge  
       Mar 6
    我告诉你怎么玩,你一定要有个海外的主力模型,claude 贵量少,我推荐 codex 5.3 ,现在智力最高,你买个 plus ,一个月 150 人民币,但是很值得,真的,即使不你买套餐,他们现在有免费额度,也基本够日常的一些需求。

    然后,你买一个 minimax 的极速版,900 人民币的那个(找个邀请链接),别买普通的,没意思,普通的,opencode 都有免费使用额度,记住 minimax 智力不是特别高,容易犯错,不能调参数(温度,推理 level 那些)但是它的价值就是是快且便宜(国内版),平均 100TPS ,秒杀其他的国内模型。

    然后你用 codex5.3 ,推理调到最高( xhigh )做 plan ,做好复制给 minimax 执行,执行完的总结再丢回给 codex 做 review ,如此循环反复,你的代码质量会很好!

    类似 教授执教(全面)+学生执行(快)的组合!
    jojopro
        55
    jojopro  
       Mar 6
    @jokcylou 很多国产模型我都重度使用过了 那你用吧 没必要洗 玩具就是玩具
    jokcylou
        56
    jokcylou  
       Mar 6 via Android
    @jojopro 你愿意为那 10%的提升多付 10 倍的成本我也不介意啊,搞得好像只有你用过一样你以为你谁啊,我身边同事体验 glm5 之后都认可不比 sonnet 差,有些方面甚至超过 opus ,你一口一个玩具张口就来呗,像是被国外媒体洗脑洗多了
    Sfilata
        57
    Sfilata  
       Mar 6
    怎么今天看见这么多白山智算的……
    jojopro
        58
    jojopro  
       Mar 6
    @jokcylou glm-5 那速度 而且极容易陷入思考循环中半天出不来 为了更高的准确率 使用国外模型 多花点钱我觉得没有什么不可
    jokcylou
        59
    jokcylou  
       Mar 6 via Android
    @jojopro 你爱用用呗,没必要靠贬低国产来抬高自己,另外速度慢是算力问题不是模型问题
    xiaodaoi
        60
    xiaodaoi  
       Mar 6 via Android
    国内模型硬件严重资源不够,买了 plan 也得忙得出奇
    CassianVale
        61
    CassianVale  
       Mar 6
    用的 MiniMax-2.5-highspeed ,虽然声明 100TPS ,但是实际没到
    Eleutherios
        62
    Eleutherios  
       Mar 7
    kimi 的硬件是不是不太行? 199 的订阅,KimiClaw 整天报 429 错误,可能是 platform overloaded
    spark
        63
    spark  
       Mar 7
    @onedge 我现在就是用类似的方案,非常不错。
    hongye
        64
    hongye  
       Mar 8
    @sheepmon #47 我一周用了 6 亿 token ,限额了
    hongye
        65
    hongye  
       Mar 8
    @onedge 我也是这个方案,哈哈
    skymanv2
        66
    skymanv2  
       Mar 10
    @onedge 这样一个月 1000 块钱了。哈哈
    kuroismith
        67
    kuroismith  
       Mar 10
    @skymanv2 应该打错了,极速版最便宜的是 90 多
    NizumaEiji
        68
    NizumaEiji  
       Mar 10
    GLM 最会营销了
    zxq1002
        69
    zxq1002  
       Mar 16
    哪家推理速度比较快,阿里和腾讯有人测试过吗?
    厂商对自家模型估计有算力倾斜,以字节为例,doubao-seed-2.0-pro 能到 150 token/s 以上,doubao-seed-2.0-code 大概 70 token/s ,kimi-k2.5 和 deepseek-v3.2 只能到 30 token/s 左右,glm-4.7 大概 60 token/s 左右。
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   2654 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 383ms · UTC 16:01 · PVG 00:01 · LAX 09:01 · JFK 12:01
    ♥ Do have faith in what you're doing.