都 2026 年了,为什么还有人觉得 AMD 比 Nvidia 更适合部署本地大模型?

19 小时 43 分钟前
 babymonster
五一节假日期间,有一个同事想本地部署大模型,在群里询问,我们都给他推荐了 Nvidia 的卡,结果他去刷 B 站,选择了 AMD AI MAX+ 395 。

难道小白真的就这样被割韭菜吗?
9368 次点击
所在节点    Local LLM
119 条回复
fredweili
18 小时 16 分钟前
没事别爱操心,别人买啥关你啥事?有钱自己去买自己玩
meteora0tkvo
18 小时 14 分钟前
早几年前,训练 ai 只能用 nVidia 卡,现在才逐渐支持 amd 的卡而已
fredweili
18 小时 13 分钟前
@afkool 苹果的东西一向是内存硬盘加价成金子,大家觉得好那是入门丐版,3000 多的不买 mac 你能找到哪怕能看到尾灯的?
afkool
18 小时 12 分钟前
@emberzhang 说错了。是 Mac Studio 。
不过我看来看去。。。感觉还是买个 rog 幻 x 划算啊。也不重,出去玩日常还能玩。
qW7bo2FbzbC0
18 小时 12 分钟前
@Gemini4422335 #3 怎么出内存?还能加内存?
babymonster
18 小时 12 分钟前
@fs418082760 说不定也是呀
babymonster
18 小时 11 分钟前
@94 本地部署如果有 CUDA 的生态的话,这个可以做成无限 token 调用呀,生图生视频
babymonster
18 小时 10 分钟前
@fredweili 是呀,我们凑钱买了两台了呀,他只是想单独买呀
94
17 小时 59 分钟前
@babymonster #47 ,算力差太大了吧…… 速度能看到交付的产物差,交付结果能看的就速度慢。
现在本能跑能用(生产力提升)的就只有翻译能力或者对话吧。其他的差距太明显,要不然就是当玩具,绕过限制玩一下涩图生成?
fcten
17 小时 58 分钟前
395 1w2 能买到的时候是真划算,应该是本地部署性价比最高的选择了,现在的价格嘛也就那样。
再好一点的选择是 M5 Max 128G 。

想要用 N 卡的,我只推荐两个:4090 48G (双卡) 或 RTX PRO 6000 ,但是这两个均没有保修。小白慎重考虑。
Jetson 系列和 DGX 系列都不适合个人使用,买来纯属吃灰,买前面的至少还能打游戏呢[doge]
sh1qi
17 小时 57 分钟前
@qW7bo2FbzbC0 ai max+ 395 是核显占用内存做显存的
huaweii
17 小时 56 分钟前
@fcten 苦等 M5 max 和 ultra 的 mac studio
sh1qi
17 小时 56 分钟前
@xtreme1 感谢岁月史官
xiaomushen
17 小时 50 分钟前
@babymonster 人家也就 2 万预算吧?你一下子翻倍了。也许两万块对你来说不算啥,但对大部分人,恐怕不是笔小钱
zoozobib
17 小时 47 分钟前
turboquant 、dflash 后的 395 更没优势了 , 吃的多和跑得快完全不是一个维度
Daitabashi
17 小时 44 分钟前
英伟达的卡 显存是和算力绑定的 为了大显存买 5090 不合算
AI Max 类似苹果的统一内存 想要多少焊多少 不用为用不到的计算性能买单
diudiuu
17 小时 33 分钟前
买 dgx spark 的也是韭菜啊
nightlight9
17 小时 32 分钟前
jetson 都出来了,哪点比得上 395 了?
shiloh595
17 小时 29 分钟前
@xtreme1 神探
MCVector
17 小时 28 分钟前
我买了两个 AMD AI Pro R9700 卡,感觉还行? Vulkan backend 性能有时比 ROCm 略好一点。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://study.congcong.us/t/1210410

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX