国内 coding plan 产品集合

2 月 27 日
 gorvey

说明

plan 核心模型 说明 标准月费 链接
GLM Code Plan GLM-5,GLM-4.7 最近涨价减量了,而且不好买 ¥49/月 访问
方舟 Coding Plan Doubao-Seed-Code / GLM / Kimi / DeepSeek 多个模型可使用 ¥40/月 访问
Kimi Code Plan Kimi K2.5 模型调用额度无详细说明 ¥49/月 访问
MiniMax Code Plan MiniMax M2.5 独家拥有 MiniMax-M2.5-highspeed 高速模型 ¥29/月 访问
阿里云百炼 Code Plan Qwen3 系列模型、MiniMax M2.5 、GLM-5 、Kimi-k2.5 、GLM-4.7 lite 就能使用 glm-5 ¥40/月 访问
摩尔线程 AI Coding Plan GLM-4.7 国产算力+国产模型 ¥40/月 访问
KwaiKAT Coding Plan KAT-Coder-Pro V1 拥有按量付费模式 按量付费 访问
百度千帆 Coding Plan GLM-4.7 、MiniMax-M2.1 - ¥40/月 访问
Code Plan by X-AIO 多模型聚合 能加钱使用 gpt,claude,gemini 等闭源模型 ¥36/月 访问
无问芯穹 Code Plan deepseek-v3.2 、kimi-2.5 、minimax-m2.5 、glm-4.7 - ¥40/月 访问
优云智算 Code Plan kimi-k2.5 、gpt-5.2-codex 、claude-opus-4-5 、MiniMax-M2.1 按量付费,支持 claude,gpt 海外模型 按量付费 访问
8541 次点击
所在节点    程序员
22 条回复
Muninn
2 月 27 日
不管买啥,记得最多买一个月。如果有产品年度优惠高于 20% 诱惑你买全年,记得远离。(对,包括 google )
Cheesen
2 月 27 日
收藏了,想问问哪个划算,目前用的阿里云百炼 Code Plan
Aaron01
2 月 27 日
感谢老哥
royluo
2 月 27 日
感谢老哥
tkwl
2 月 27 日
这个有好用的不,尝尝鲜
hi2hi
2 月 27 日
GLM 之前 150 多买的一年 Lite ,现在丢个 openclaw 跑简单任务;
Kimi Code 买了 7 块钱一周的版本,用来跑 coding ,还不错,kimi-k2.5 的前端确实要好很多;
方舟买了 Lite ,因为有 Kimi k2.5 ,但是用着用着就要等响应(估计静默排队吧),量大管饱,但是没有原厂的好用?(没跑对比,无法断定);后来发现 TareCN 也可以免费用 glm5 和 kimi2.5 ,但是容易排队。
下面的,没买过;
记得月付,不要年付;
Sh3r1ock
2 月 27 日
MiniMax M2.5-highspeed 只有 minimax 的极速版订阅才能使用
qa2080639
2 月 27 日
有没有人 做个使用评价和套餐额度是否够日常工作使用 模型太多都看不过来 GitHub copilot 300 次对话用得抠抠搜搜的
jqknono
2 月 27 日
@qa2080639 https://jqknono.github.io/coding-plans-for-copilot/

我有个 vscode 插件可以接入到 github copilot
https://github.com/jqknono/coding-plans-for-copilot

zhipu lite 就挺难用完, 因为它又慢又卡, 限流又限并发, 还只能用 glm4.7
jqknono
2 月 27 日
https://jqknono.github.io/coding-plans-for-copilot/
不少大厂商有优惠, 基本都是新人专享.
有的编码套餐有个好处, 不必实名, 意味着换个手机号就能薅新的优惠.
RoccoShi
2 月 28 日
有没有同时体验过 MiniMax / Kimi / GLM 的,不知道开哪个比较好
3499
2 月 28 日
大家都是付费上班是吧
jojopro
2 月 28 日
都是垃圾 别在这些模型上浪费时间和金钱 直接 claude 走起吧
spediacn
3 月 1 日
优云智算的 Claude 模型实测来自 Kiro ,比官方便宜一点,
X-AIO 刚算了一下比官方也便宜,但风评貌似不好,倍率随时变
spediacn
3 月 1 日
@RoccoShi 走前端 kimi ,后端多的 GLK 稳一点,也就一点点。

官宣 SWE 都在 76%左右,社区复现 kimi 大约 36%,glm 反而最高是 50%,比 opus 的 80%还差一些,干体力活儿没问题
niubilewodev
3 月 3 日
买过某家国产的 Coding Plan ,只能说尽量避开国产 Coding Plan ,审查太严了。
之前用 Gemini/GPT/Claude 模型开发的一个 A 片管理 portal ,国产模型一上去就会话终止了。
3499
3 月 4 日
https://ai.baishan.com/auth/login?referralCode=IPuMdoEk4y

•注册福利:用户完成注册并实名认证后,即可获得 150 元大模型 API 代金券(自动发至账户余额)。

•调用福利:用户完成首次 API 调用后,将获得 300 元大模型 API 代金券(人工审核,3 个工作日左右到账)

当前福利政策有效期 2026 年 3 月 15 日
nativeBoy
3 月 10 日
@Muninn #1 100 刀拼车用户路过,虽然只花了 100RMB ,但是降智太厉害了。快速模型让他总结一段话,写一段代码,都会有一些问题。
asd999cxcx
3 月 12 日
讯飞星辰 GLM5 只有 128K 上下文正常么?
Sundayz
3 月 16 日
腾讯云也出了一个 coding plan ,按请求次数计费的(有倍率),支持 GLM-5 和 MiniMax-M2.5

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://study.congcong.us/t/1194541

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX