这个推理速度也太快了吧! chatjimmy.ai 比查 db 都快啊!

4 天前
 rmrf

chatjimmy.ai 可以体验 “Taalas 推出首款产品 HC1 ,搭载 Llama 3.1 8B 模型,性能达每用户 17,000 tokens/秒,较现有技术快近 10 倍,制造成本降低 20 倍,功耗减少 10 倍。该模型虽采用自定义 3-bit 数据格式,存在轻微精度损失,但第二代产品将采用标准 4-bit 浮点格式,进一步优化性能。”

7044 次点击
所在节点    程序员
65 条回复
renfei
4 天前
试了下,快是快,智商不太够,很多逻辑题答案给出的错误的
rmrf
4 天前
@renfei 是的,精度不行,但这推理速度,让很多事情很有想象力了。尝试了一下大段翻译,超级快,而且基本正确。
cyp0633
4 天前
试了一下翻译任务,很难说是精度问题还是模型本身能力不行,只能说都不可用
wew3
4 天前
让我想起了岳云鹏的相声
maolon
4 天前
我觉得之前的 openai 的 5.3 codex spark 已经很有想象力了, 没想到这个更夸张
Leeeeex
4 天前
「别管对不对,就说快不快吧」?
catazshadow
4 天前
大暴死的节奏,AI 的死穴是正确性,不是傻快
rmrf
4 天前
@catazshadow 这才开始,后面慢慢优化起来,很有想象力啊。
duty
4 天前
正确性是靠模型的,这个只是证明了一个方案的可行性,就是把模型直接写入到芯片中,忽略了内存和带宽的限制
coderluan
4 天前
确实快的有点夸张,有些场合确实有用,感谢楼主,新年祝大家也都这么快🐶
catazshadow
4 天前
@rmrf 这条路的尽头是 cerebras 那样的晶圆级芯片

https://www.cerebras.ai/blog/openai-codexspark

这么大的东西能跑每秒 1000token ,比这个小的要么比它傻要么比它慢
CodFrm
4 天前
「别管对不对,就说快不快吧」


77158158
4 天前
瞎回复的。只管快,不管对。
CuteGirl
4 天前
除了快 其他都不行 回答要么无法回答 要么就是不知所云 - -!
B4a1n
4 天前
@catazshadow #11 确实,我用 Cline 插件配合 cerebras 的 GLM 跑一个老项目的新系统兼容构建编译,写好提示后它能以极快的速度疯狂的编写测试用例跟反复自己解决 BUG ,直到满足我的需求为止,硬生生跑了半个小时用极快的测试样例跟不停的自动修改 BUG 给我编译成可运行的版本了,完全是用速度跟大 token 换出来的
i386
4 天前
@CodFrm 哈哈哈
xing7673
4 天前
节点换到 [推广] 请
Tink
4 天前
不行,精度太差了

Gilfoyle26
4 天前
1351253123*31388993624+12312424/35123512314234=354362455345523454

先别管对不对,你就说快不快吧!
Ccf
4 天前

魔咒了!

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://study.congcong.us/t/1193358

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX