有人用 Kimi K2 做 Claude 平替的吗?效果怎么样?

2025 年 11 月 5 日
 fangyex
4997 次点击
所在节点    程序员
20 条回复
gotoschool
2025 年 11 月 5 日
一般吧
代码还得吃 claude
glm k2 在 claude 写好的项目上改 还说得过去
hnliuzesen
2025 年 11 月 5 日
一般,但是现在 minimax-m2 免费,在用这个,感觉不错,而且吐字比较快
aweim
2025 年 11 月 5 日
我试了几家,国内还是 qwen 效果好
spritecn
2025 年 11 月 5 日
gpt5-codex 还行,就是慢
gemini 2.5Pro 也算能用
stdout
2025 年 11 月 5 日
我用了 99 一个月的, 真不经用, 很快就能用完额度, 问题如果清晰明了不复杂,还是能很快搞定. 如果是做新项目不做大的修改,还行,要是单独改某些点, 有删除的, 很容易搞错.
iwdmb
2025 年 11 月 5 日
GLM 堪用
米国很多拿 GLM 来节省 Token 消耗的
quqivo
2025 年 11 月 5 日
@hnliuzesen 怎么调用啊这个
cheneven
2025 年 11 月 5 日
@quqivo 官网有,目前用 vscode 的 cline 插件,可以使用,效果不错
Mocus
2025 年 11 月 5 日
用 Kimi K2 接入 Claude Code 写 LLVM(C++),效果还能接受
lscho
2025 年 11 月 5 日
GLM4.6 写代码感觉还可以,测试了一周感觉勉强够用了,提示词稍微写详细一点
humanbait
2025 年 11 月 5 日
Claude code 中 使用 GLM4.6 挺久了,提示词写好,非常可用。
crocoBaby
2025 年 11 月 5 日
trae cn 版可以免费使用 GLM4.6
foryou2023
2025 年 11 月 5 日
用 api 的都烧不起,目前用 glm 4.6 的 lite ,日常够用,配合 openspec ,写好文档,写 nodejs 和前端还行
ARAAR
2025 年 11 月 5 日
用了一圈下来,国产模型还是 GLM4.6 ,minimax 别看跑分高,实测一塌糊涂,光快是没用的。gpt5codex 慢,但是最终效果好。所以快就是慢,慢就是快
jixule
2025 年 11 月 5 日
Roocode+魔搭 GLM4.6 差不多
pnczk2019
2025 年 11 月 5 日
GLM 4.6 上线问太少吧..扔了一个小东西进去..就一个对话他没回答就开始压缩了
ARAAR
2025 年 11 月 5 日
@pnczk2019 #16 上下文 200k ,跟 sonnet4.5 一样的
Hyxiao
2025 年 11 月 5 日
Kimi 烧的也挺快的,走 API 可以试下 GLM
hnliuzesen
2025 年 11 月 6 日
tlerbao
2025 年 11 月 6 日
别看那些标题党,国产没一个能打的

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://study.congcong.us/t/1170616

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX