国产口粮模型选择,请投出你的一票

1 月 19 日
 kaesi0

之前的帖子 这可能是下一个周经帖:国产大模型哪个编程能力最顶?已经过去一段时间,现在不少模型都已经更新了,而且都支持方便的接入 claude code 等 cli 工具或者 cursor 这样的 ide 。那么,在众多的国产模型中,从你的实际体验出发,哪个国产模型才是最佳日常编码的口粮模型呢?量大管饱,能处理大多数场景的需求。

来吧,分享一下你的体验!


GLM-4.7:目前收集到的信息是,测试的时候效果还不错,能跟 sonet 4.0 有来有回,coding plan 也比较便宜,但是超售严重,订阅后降智严重

MiniMax M2.1:也推出了自己的 coding plan ,总的来说反馈还是不错

DeepSeek-V3.2:写代码还是不太行,听说 4.0 很强!

kimi-for-coding:听说比较蠢,具体请反馈

Doubao-Seed-Code:最近新出,还得到了阮一峰推荐 https://www.ruanyifeng.com/blog/2025/11/doubao-seed-code.html

12538 次点击
所在节点    程序员
73 条回复
nakun233
1 月 19 日
模型这东西只用宇宙最 top,其余的都是浪费效率
jimrok
1 月 19 日
kilo 搭配 GLM 4.7 用了一段时间,慢,有些工作蠢,修改代码容易找不到地方。其他没有试过,过段时间 GLM 套餐结束后,换一个试试。代码这东西,真是必须选能干的,否则就是白扔钱。所以后面模型在这方面竞争,没有 2-3 名生存的空间。
gowk
1 月 19 日
目前我还是持观望态度。主力是 codex 和反重力
thetbw
1 月 19 日
Doubao-Seed-Code 买了 9.9 的首月优惠套餐,质量太差,不太能用。
freefcw
1 月 19 日
从我个人的角度上来说 minimax 2.1 似乎比 glm 4.7 好一点,但都是半斤八两吧
kaesi0
1 月 19 日
@gowk 我也是之前主用反重力,不过感觉反重力太拉了,功能都不完善,而且 google 更新慢死了
kaesi0
1 月 19 日
@thetbw 帮大家拔草了
MzM2ODkx
1 月 19 日
GLM-4.7
gowk
1 月 19 日
@kaesi0 #26 反重力 Opus 量还算大,自认为是目前最强的编程模型,可以弥补反重力在工程上的不足。
主要是官方 Opus 订阅太贵,试过各种中转站也不太稳定。Codex 目前除了慢点,没别的毛病
ynxh
1 月 19 日
MiMo 免费,速度快 ,接入 cc ,我用下来还可以
passion336699
1 月 19 日
GLM-4.7

十一期间买的 lite, 最开始嘎嘎猛, 11 月份 4.6 开始有点蠢, 12 月份 4.7 又嘎嘎猛.

但是现在严重超卖, lite 卡的一批, 以前是上午速度还可以, 下午一般,

现在是上午下午都慢的跟屎一样...

我借了 pro 的 key 用了下, 体感比 lite 好很多, 但是我不会再升级 pro 了.

如果开年之后 lite 一直是这个吊样, 那就没什么用头了... 换 minimax 试试...
forsceer
1 月 19 日
@passion336699 我也是 lite 经常几十秒才回复完,pro 买过三月还挺快,但会降智,经常多改代码,现在买了 minimax Plus 感觉还行
darksheen
1 月 19 日
我只用最好的模型,所以不用国产的。AI 就是用来节省自己的时间和精力,要用就用最好的,反正贵不了多少。
HENQIGUAI
1 月 19 日
用差模型确实能气晕,还是用 top 模型吧,这样出问题就一定是自己指导的问题或者本身模型的限制。
而不用担心是不是因为这个模型不够好我换个更好的模型试试。
ianisme
1 月 19 日
我觉得一分钱一分货,用了 genmini 、codex 、claude 、GLM 都试了下,国产的确认不太行。其他三个各有千秋,都可以
frankies
1 月 19 日
别用!垃圾模型能用出高血压!有能力用 claude code opus4.5 ,至少目前写代码只要这一个,没有替代的。
v21984
1 月 19 日
@ynxh 明天到期
passion336699
1 月 19 日
@forsceer 我现在一般 context 到 60% 就压缩, 反正一分钱一分货, 不过 lite 的速度, 真的跟之前差太多太多了... 我已经有点绷不住了.

智普几个企微群大家也都是在喷, 反正没太大起色, 下午经常挂了几分钟 0 tokens...
iorilu
1 月 19 日
为啥要关心这个

都知道目前 claude 最好, 当然用 claude, 就算花点钱肯定省得来回折腾时间赚回来

更何况就算不花钱也有法子(学生会员啥的)
sdshiyan2005
1 月 19 日
M2.1 。但是用多了 anthropic 家的模型后换回国产的 GLM4.7 和 M2.1 ,看看有点蠢的代码和内容,血压就开始变高了……国产的还是得把需求拆的细一些做控制。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://study.congcong.us/t/1186719

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX