V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
kaesi0
V2EX  ›  程序员

国产口粮模型选择,请投出你的一票

  •  
  •   kaesi0 · Jan 19 · 12538 views
    This topic created in 102 days ago, the information mentioned may be changed or developed.

    之前的帖子 这可能是下一个周经帖:国产大模型哪个编程能力最顶?已经过去一段时间,现在不少模型都已经更新了,而且都支持方便的接入 claude code 等 cli 工具或者 cursor 这样的 ide 。那么,在众多的国产模型中,从你的实际体验出发,哪个国产模型才是最佳日常编码的口粮模型呢?量大管饱,能处理大多数场景的需求。

    来吧,分享一下你的体验!


    GLM-4.7:目前收集到的信息是,测试的时候效果还不错,能跟 sonet 4.0 有来有回,coding plan 也比较便宜,但是超售严重,订阅后降智严重

    MiniMax M2.1:也推出了自己的 coding plan ,总的来说反馈还是不错

    DeepSeek-V3.2:写代码还是不太行,听说 4.0 很强!

    kimi-for-coding:听说比较蠢,具体请反馈

    Doubao-Seed-Code:最近新出,还得到了阮一峰推荐 https://www.ruanyifeng.com/blog/2025/11/doubao-seed-code.html

    Supplement 1  ·  Jan 19
    截止 16:00 有效投票
    MiniMax M2.1:6 票,有接近 calude 的效果
    GLM-4.7:3 ,总体可以,但是慢
    kimi:1
    Supplement 2  ·  Jan 21
    看来大家对 minimax m2.1 普遍的评价会好一些
    对于对 GLM 4.7 慢已经是深恶痛绝了
    73 replies    2026-02-19 10:41:59 +08:00
    lipengliang2012
        1
    lipengliang2012  
       Jan 19
    MiniMax M2.1
    dryadent
        2
    dryadent  
       Jan 19
    MiniMax M2.1
    musi
        3
    musi  
       Jan 19   ❤️ 13
    少看点阮一峰推荐,广告一大堆,之前还推过七牛云,凡是买过的没有不骂的
    zuosiruan
        4
    zuosiruan  
       Jan 19
    MiniMax M2.1
    404www
        5
    404www  
       Jan 19
    > Doubao-Seed-Code:最近新出,还得到了阮一峰推荐

    阮一峰非周五的都是广告好吧
    madpudding
        6
    madpudding  
       Jan 19
    GLM-4.7
    zxjxzj9
        7
    zxjxzj9  
       Jan 19
    MiniMax M2.1 套餐真的很实用
    YanSeven
        8
    YanSeven  
       Jan 19   ❤️ 1
    阮一峰的广告可信度较低
    sn0wdr1am
        9
    sn0wdr1am  
       Jan 19   ❤️ 1
    我的建议是:能不用还是先不要用。
    chechengpeng
        10
    chechengpeng  
       Jan 19
    GLM-4.7
    defaw
        11
    defaw  
       Jan 19
    GLM-4.7 昨天看到 minimax 的赠金快过期了,在 cc 里按量付费用了一会儿 m2.1 ,不知所云,堪称灾难
    idontnowhat2say
        12
    idontnowhat2say  
       Jan 19
    有第一的模型为什么要用第二模型呢?第一的模型相比第二的就算订阅价格翻倍也不过等于每个月多吃了几顿外卖,但节省的时间可以自己的。
    atusss
        13
    atusss  
       Jan 19   ❤️ 2
    GLM-4.7 慢的扣脚
    ldapadmin
        14
    ldapadmin  
       Jan 19
    相信我 MiniMax M2.1 codeplan 非常棒 GLM 谁买谁傻逼
    Amcrow
        15
    Amcrow  
       Jan 19
    GLM 4.7 太慢
    cmlx1014
        16
    cmlx1014  
       Jan 19
    大厂小厂都呆过,需要用这些大模型吗,每天其实写不了多少代码,重业务重 JAVA ,IDEA 搭配个 TRAE ,解释些代码就行了,大规模生成的代码,完全不可用啊。
    elechi
        17
    elechi  
       Jan 19
    我在 trae 国产版中,觉得 kimi 比其他的好用
    qq1147
        18
    qq1147  
       Jan 19
    口粮模型可还行,我是用的 GLM4.7
    MelodYi
        19
    MelodYi  
       Jan 19
    minimax 很便宜,体感有 claude 8 成功力以上。
    zhonghao01
        20
    zhonghao01  
       Jan 19
    GLM4.7 主要是太慢。生成的结果还是可以的
    nakun233
        21
    nakun233  
       Jan 19
    模型这东西只用宇宙最 top,其余的都是浪费效率
    jimrok
        22
    jimrok  
       Jan 19
    kilo 搭配 GLM 4.7 用了一段时间,慢,有些工作蠢,修改代码容易找不到地方。其他没有试过,过段时间 GLM 套餐结束后,换一个试试。代码这东西,真是必须选能干的,否则就是白扔钱。所以后面模型在这方面竞争,没有 2-3 名生存的空间。
    gowk
        23
    gowk  
       Jan 19
    目前我还是持观望态度。主力是 codex 和反重力
    thetbw
        24
    thetbw  
       Jan 19
    Doubao-Seed-Code 买了 9.9 的首月优惠套餐,质量太差,不太能用。
    freefcw
        25
    freefcw  
       Jan 19
    从我个人的角度上来说 minimax 2.1 似乎比 glm 4.7 好一点,但都是半斤八两吧
    kaesi0
        26
    kaesi0  
    OP
       Jan 19
    @gowk 我也是之前主用反重力,不过感觉反重力太拉了,功能都不完善,而且 google 更新慢死了
    kaesi0
        27
    kaesi0  
    OP
       Jan 19
    @thetbw 帮大家拔草了
    MzM2ODkx
        28
    MzM2ODkx  
       Jan 19
    GLM-4.7
    gowk
        29
    gowk  
       Jan 19
    @kaesi0 #26 反重力 Opus 量还算大,自认为是目前最强的编程模型,可以弥补反重力在工程上的不足。
    主要是官方 Opus 订阅太贵,试过各种中转站也不太稳定。Codex 目前除了慢点,没别的毛病
    ynxh
        30
    ynxh  
       Jan 19
    MiMo 免费,速度快 ,接入 cc ,我用下来还可以
    passion336699
        31
    passion336699  
       Jan 19
    GLM-4.7

    十一期间买的 lite, 最开始嘎嘎猛, 11 月份 4.6 开始有点蠢, 12 月份 4.7 又嘎嘎猛.

    但是现在严重超卖, lite 卡的一批, 以前是上午速度还可以, 下午一般,

    现在是上午下午都慢的跟屎一样...

    我借了 pro 的 key 用了下, 体感比 lite 好很多, 但是我不会再升级 pro 了.

    如果开年之后 lite 一直是这个吊样, 那就没什么用头了... 换 minimax 试试...
    forsceer
        32
    forsceer  
       Jan 19
    @passion336699 我也是 lite 经常几十秒才回复完,pro 买过三月还挺快,但会降智,经常多改代码,现在买了 minimax Plus 感觉还行
    darksheen
        33
    darksheen  
       Jan 19
    我只用最好的模型,所以不用国产的。AI 就是用来节省自己的时间和精力,要用就用最好的,反正贵不了多少。
    HENQIGUAI
        34
    HENQIGUAI  
       Jan 19
    用差模型确实能气晕,还是用 top 模型吧,这样出问题就一定是自己指导的问题或者本身模型的限制。
    而不用担心是不是因为这个模型不够好我换个更好的模型试试。
    ianisme
        35
    ianisme  
       Jan 19
    我觉得一分钱一分货,用了 genmini 、codex 、claude 、GLM 都试了下,国产的确认不太行。其他三个各有千秋,都可以
    frankies
        36
    frankies  
       Jan 19
    别用!垃圾模型能用出高血压!有能力用 claude code opus4.5 ,至少目前写代码只要这一个,没有替代的。
    v21984
        37
    v21984  
       Jan 19 via Android
    @ynxh 明天到期
    passion336699
        38
    passion336699  
       Jan 19
    @forsceer 我现在一般 context 到 60% 就压缩, 反正一分钱一分货, 不过 lite 的速度, 真的跟之前差太多太多了... 我已经有点绷不住了.

    智普几个企微群大家也都是在喷, 反正没太大起色, 下午经常挂了几分钟 0 tokens...
    iorilu
        39
    iorilu  
       Jan 19
    为啥要关心这个

    都知道目前 claude 最好, 当然用 claude, 就算花点钱肯定省得来回折腾时间赚回来

    更何况就算不花钱也有法子(学生会员啥的)
    sdshiyan2005
        40
    sdshiyan2005  
       Jan 19
    M2.1 。但是用多了 anthropic 家的模型后换回国产的 GLM4.7 和 M2.1 ,看看有点蠢的代码和内容,血压就开始变高了……国产的还是得把需求拆的细一些做控制。
    ericguo
        41
    ericguo  
       Jan 19
    kimi 1T 模型,然后你认为蠢……价格这里面最高的好吗。
    hemingway
        42
    hemingway  
       Jan 19
    glm4.7
    acisky
        43
    acisky  
       Jan 19
    MiniMax 偶尔会请求失败,实际体验反而不如 gemini
    okekrrGo
        44
    okekrrGo  
       Jan 19
    GLM-4.7
    Biem
        45
    Biem  
       Jan 20
    GLM-4.7 配合给的 MCP 还好。我是 Codex 开荒做好脚手架,留好规格文档和接口函数,剩下的苦力交给 GLM
    Aaron01
        46
    Aaron01  
       Jan 20 via iPad
    国产模型对比的头疼,都说自己是最好的,不如用 Gemini ,量大还能白嫖
    1103409364
        47
    1103409364  
       Jan 20
    Gemini
    b309f3337
        48
    b309f3337  
       Jan 20
    @cmlx1014 目前日常工作 90%的甚至更多的代码都是用 AI 写的,完成度都挺高的
    YanSeven
        49
    YanSeven  
       Jan 20
    @iorilu claude 还真不是花点钱的事儿。。。
    kaesi0
        50
    kaesi0  
    OP
       Jan 20
    @gowk 哈哈,我把反重力的 oups 代理出来,又喂给 claude code 来用了,实在受不了反重力,跟个半成品似的
    kaesi0
        51
    kaesi0  
    OP
       Jan 20
    @Biem 对 好多人也这么用 发挥各自模型的长处
    sanbucat
        52
    sanbucat  
       Jan 20
    MiniMax M2.1 感觉也还行
    location123
        53
    location123  
       Jan 20
    MiniMax 在 cc 里是灾难 plan 模式疯狂请求改代码 OpenCode 里面用的还行
    asd999cxcx
        54
    asd999cxcx  
       Jan 20
    目前主力反重力,g3pro 好用,速度准确率没话说,claude 总是需要 retry ,g3flash 偶尔小任务用用挺方便。

    codebuddy 上感觉 ds3.2 还不错,但是容易 limit ,3.2 用完了就用 kimi 也还凑合。

    体验过 codex ,是真的慢,但是基本 1-2 次就能解决问题。

    在 opencode 上试了免费的 minimax m2.1 和 glm4.7 感觉 2.1 能做完,但是会有错误,需要不停修改,还不能一次性修改完。4.7 就是感觉做起来都有问题.
    asd999cxcx
        55
    asd999cxcx  
       Jan 20
    至于为啥不用 trae ,国内版 4.7 和 minimax m2.1 都要排队就没兴趣了,除非偶尔需要截图说明哪哪哪的问题才会用下 doubao
    eastcukt
        56
    eastcukt  
       Jan 20 via Android
    @cmlx1014 差不多感觉。
    业务复杂时不是几轮对话就能说清的。几轮对话能说清的有那时间我已经干完了。
    还有就是项目组的整体代码风格也要保持统一,那就得再告诉 AI 去读整体内容风格,太头痛了直接嗝屁。
    当前用到的地方就是一些实体的生成转换或冷门函数调用什么的,现存的大项目还是不太好用。
    倒是感觉用在全栈的练手小项目里面还是挺不错的
    npe
        57
    npe  
       Jan 20
    Gemini 2.5 preview
    hekou123
        58
    hekou123  
       Jan 20
    都用过,首推 MiniMax M2.1
    排序是:MiniMax M2.1>GLM-4.7>DeepSeek-V3.2
    kepenj
        59
    kepenj  
       Jan 20
    国产貌似木有能打的,还是只能 opus4.5 挤挤用,贵就贵点,总比产生垃圾强。
    S1ahs3r
        60
    S1ahs3r  
       Jan 20
    MiniMax M2.1 我这里完全不敌 GLM-4.7
    都是基础款的 coding plan
    stinkytofux
        61
    stinkytofux  
       Jan 20
    GLM4.7 不仅慢, 而且最近几天还频繁出现 API 频率限制的提示. 我都用了将近一个月了, 之前高频率使用都没出现, 应该是降低配额了.
    heimoshuiyu
        62
    heimoshuiyu  
       Jan 20
    glm-4.7 上班时间慢得很...得错峰使用
    Kontinue
        63
    Kontinue  
       Jan 20
    所以 glm-4.7 就是慢咯,我还以为是 claude 的原因或者是我买的 lite 的关系。。。
    lemonda
        64
    lemonda  
       Jan 20
    GLM 4.7 慢,不如 Opencode Zen 带的 free
    Coding Plan 的 API 地址不一样,限并发,多开几个子 Agent 会提示。
    MiniMax M2.1 强一些。
    最能少量几次解决问题的目前是 Codex
    vantis
        65
    vantis  
       Jan 20
    qwen-code-plus 没人用吗 我们公司深度绑定 aliyun 所以我用这个 原因是不用自己出钱 233
    liantian
        66
    liantian  
       Jan 20
    我现在是业余开发者,隔三岔五自己做做自己的东西。
    我选 DeepSeek-V3.2 ,按量付费还是比较适合我。
    asd999cxcx
        67
    asd999cxcx  
       Jan 21
    @vantis 偶尔用作日志分析或者问问小问题,感觉还行,实际业务开发有时候他会出现不读取指定文件,跑去读取当前的情况,话说这玩意和 qwen cli 直接用有什么区别吗?
    vantis
        68
    vantis  
       Jan 21
    @asd999cxcx qwen cli 只是工具 模型可以自选的 默认这个
    我的 qwen 上次写功能 给我写了三四个 todo 让我自己实现哈哈哈哈笑死
    asd999cxcx
        69
    asd999cxcx  
       Jan 21
    @vantis 我用其他模型有时候也会这样,我直接回复:你自己实现。要么就是新开会话,让他实现那些 todo
    kaesi0
        70
    kaesi0  
    OP
       Jan 21
    看来大家对 GLM 4.7 慢已经是深恶痛绝了 哈哈
    9136347
        71
    9136347  
       Jan 21
    GLM-4.7 -1 扣一票,一开始还行,但是用了几天之后降智明显。
    frantic
        72
    frantic  
       Jan 22
    GLM 4.7 的确不行,MiniMax M2.1 还没用过, 最好用的还是 cc 然后是 codex
    yjiefl
        73
    yjiefl  
       Feb 19
    这段时间都试了,国产的跑 agent 干不了什么事情,效果也不好,性价比其实很低。
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   2383 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 178ms · UTC 10:46 · PVG 18:46 · LAX 03:46 · JFK 06:46
    ♥ Do have faith in what you're doing.