腾讯云今天也发布 coding plan,大家觉得怎么样?实测发现可能有量化,但是多模态没阉割

3 月 6 日
 lynn1su






目前买了 pro ,体验了下,发现混元模型有点一般,kimi2.5 和 glm5 没有像百度千帆一样阉割图片理解,还有思考速度过快了,比 kimi 官方还快,我怀疑有量化
5037 次点击
所在节点    程序员
37 条回复
106npo
3 月 6 日
@cc9910 哪家不都是这样
lynn1su
3 月 6 日
@cc9910 #19 四家都这样写啊
SSang
3 月 6 日
这截图我还以为是从阿里那边截过来的。
SSang
3 月 6 日
阿里的我感觉有 Bug ,我身边很多使用阿里的都出现相同的问题。其他几家不知道怎么样

ref: https://study.congcong.us/t/1196364
arayinfree
3 月 6 日
3. 数据使用授权:您在使用 Coding Plan 期间,模型输入及模型生成的内容将用于服务改进与模型优化。若您停止使用 Coding Plan ,将自动终止后续数据授权,终止授权的范围不涵盖此前已授权使用的相关数据。

是不是都这样
bbao
3 月 6 日
为什么会有人来回去测试呀,腾讯的大模型和百度的文心一言真的不分高低,烂的一批; kimi 也烂的一批,ds 现在也烂的一批;
lynn1su
3 月 6 日
@bbao #26 就想试试谁家没有阉割
不过 glm5 还是可以的
Freakr
3 月 6 日
@arayinfree 阿里云国际版和智谱的国际版协议里没有这一条
Freakr
3 月 6 日
@Freakr 但是这两家国际版价格都比国内版高
lynn1su
3 月 6 日
@Freakr #28 治不了洋人还治不了你?
jqknono
3 月 6 日
https://jqknono.github.io/coding-plans-for-copilot/

我搜罗了一些海外提供的开源模型套餐, 试过 chutes, 算能用.

openrouter 有公开数据展示延迟和 token 速率.

![]( )
lynn1su
3 月 6 日
@jqknono 支持
deavorwei
3 月 7 日
不知道为啥,我在 vscode+cline 插件用,上下文 60k-70k 左右就会报这个错误,很难受。提了工单也没回
lynn1su
3 月 7 日
@deavorwei 啥模型啊
lynn1su
3 月 7 日
@deavorwei 你这看着像 glm5 不兼容你这个工具导致的
deavorwei
3 月 8 日
@lynn1su #35 企鹅官网说是兼容的,而且要是兼容有问题,应该第一次调用就报错。这个报错跟 70K 上下文强相关。
aotianl626
3 月 9 日
不知道明天能抢到不

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://study.congcong.us/t/1196273

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX