都 2026 年了,为什么还有人觉得 AMD 比 Nvidia 更适合部署本地大模型?

19 小时 43 分钟前
 babymonster
五一节假日期间,有一个同事想本地部署大模型,在群里询问,我们都给他推荐了 Nvidia 的卡,结果他去刷 B 站,选择了 AMD AI MAX+ 395 。

难道小白真的就这样被割韭菜吗?
9368 次点击
所在节点    Local LLM
119 条回复
selca
19 小时 41 分钟前
详述具体差异是什么呢,为啥觉得 nvidia 更适合
minikekeke
19 小时 37 分钟前
便宜
Gemini4422335
19 小时 34 分钟前
因为同价位下 AMD AI MAX+ 395 可以用更大的显存,回血出内存也方便,最高 128G
如果是 N 卡它到不了这么大,除非多卡,但是多卡又比 AMD 贵空间占的也多
至于性能损失方面不是咱们这些专业选手,人家并不在意
chihiro2014
19 小时 34 分钟前
rocm 各种坑
afkool
19 小时 33 分钟前
推理来讲 395 便宜啊 128g 能跑大多数模型了
他的竞争对手应该是 Mac mini 128g 这种
Nvdia 是另一个赛道了吧……
xiaomushen
19 小时 33 分钟前
你觉得人家没这个智商对比么?
哪怕 Q4 量化,部署一个 dense ,又真正可用的本地模型,根据不同参数规模,你猜猜需要多大的显存?
当然,如果你是推荐给他 H20/H200 之类的,当我没说。。。
xiaomushen
19 小时 33 分钟前
@chihiro2014 坑是真的坑,但 2026 年,凑合能用
zhuoi
19 小时 32 分钟前
安装个 rocm 你就明白 A 卡的坑了
xiaomushen
19 小时 31 分钟前
@afkool 是的呀,买东西肯定是综合考虑的,各种变量约束。
andlp
19 小时 30 分钟前
本地个人用,部署这些模型差别不大.nvidia 贵,我还推荐你买最新的 nvidia 显卡,部署 deepseek v4 pro 呢
strobber16
19 小时 27 分钟前
建议买华为
babymonster
19 小时 27 分钟前
@selca Nvidia 的优势:CUDA 、硬件级 AI 优化、社区兼容性、高效、稳定、开箱即用
ntedshen
19 小时 24 分钟前
> 我们都给他推荐了 Nvidia 的卡,结果他去刷 B 站,选择了 AMD AI MAX+ 395

你不妨说说你们都给他推了什么。。。
twofox
19 小时 23 分钟前
说说什么预算下,推荐了什么?
xtreme1
19 小时 22 分钟前
/t/1209353
很羡慕你的大脑升级速度, 4 天前击矛不懂今天已经可以指点江山了
padeoe
19 小时 22 分钟前
本地部署大模型务必买 NVIDIA Spark 呀,和 AMD 395 对标的产品,这俩我都买了,AMD AI MAX+ 395 预售阶段我就下单了,相比来说,比 AMD 395 贵几千块,但生态和性能强的不是一点。
babymonster
19 小时 18 分钟前
@ntedshen Nvidia Jetson Orin 64GB 、Nvidia Jetson Thor T5000 、Nvidia DGX spark 这些?有啥问题吗?
babymonster
19 小时 17 分钟前
@twofox 三四万左右,给他推荐了 Nvidia Jetson Orin 64GB 、Nvidia Jetson Thor T5000 、Nvidia DGX spark 这些等等
babymonster
19 小时 16 分钟前
@padeoe 真的能对标吗? AMD 也有 CUDA 生态?
kiwatokk
19 小时 14 分钟前
主要还是 n 卡有 cuda 吧

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://study.congcong.us/t/1210410

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX