都 2026 年了,为什么还有人觉得 AMD 比 Nvidia 更适合部署本地大模型?

20 小时 40 分钟前
 babymonster
五一节假日期间,有一个同事想本地部署大模型,在群里询问,我们都给他推荐了 Nvidia 的卡,结果他去刷 B 站,选择了 AMD AI MAX+ 395 。

难道小白真的就这样被割韭菜吗?
9423 次点击
所在节点    Local LLM
119 条回复
xiaomushen
18 小时 24 分钟前
@MCVector 前两年是真的很坑,今年很多坑都补上来了。当然,肯定不如 Cuda 好用
geekvcn
18 小时 14 分钟前
英伟达水军是真的多,AI 小白不懂装懂的也真是多。
rammiah
18 小时 13 分钟前
感觉反了
Curtion
18 小时 11 分钟前
我就买了 395 ,1.2w 的价格,128G 显存的还有哪个机器可以做到? 而且推理不一定要用 CUDA 啊,我连 ROCm 都没用,我用的是 vulkan 缺点就是用不了 DFlash, 跑 27B 稠密模型瓶颈在算力上, 但是可以相同速度跑 122B-A10B 的 MOE 模型
neptuno
18 小时 10 分钟前
他可能也就想想,买回来更多是打游戏
zycode
18 小时 9 分钟前
主要是硬件性价比高,不过 rocm 确实是容易各种不兼容
catazshadow
17 小时 27 分钟前
Rocm 最大的坑是明年就不支持老卡了
babymonster
17 小时 8 分钟前
@94 你用过 z-image 吗?我感觉他这个配合 ComfyUI 来生图还是挺好的呀,不光是生图像,什么 TTS 、ASR 都还好呀
babymonster
17 小时 7 分钟前
@fcten 专业级显卡跟消费级显卡需要有打游戏的这个对比吗?那 H100 和 H20 难道这种显卡也要去打游戏吗?
babymonster
17 小时 5 分钟前
@Curtion 只能跑 27B 吗? GTP OSS 120B 可以跑吗?而且 AMD 可以做算力堆叠或者串联吗
yoshiyuki
16 小时 57 分钟前
便宜和好买
jaoyina
16 小时 46 分钟前
@babymonster

三,四万现在本地能跑多大的模型了?
xiaomushen
16 小时 41 分钟前
@babymonster Qwen3.6 27b dense 模型,非常强了。两万块就能跑,不是挺好么?你非要推荐 4 万以上的...瞧不起别人没钱?
xiaomushen
16 小时 40 分钟前
@geekvcn 我觉得楼主是个富哥。几万块差价,在他眼里根本不屑一顾
565656
16 小时 29 分钟前
AMD 的东西一生黑 我打游戏都买的 285K 没买 x3d ,之前就发现 AMD 待机的风扇就叫不停好讨厌
adoal
16 小时 26 分钟前
因为 Jetson 和 DGX 真的是只能“部署大模型”,除此之外对个人用户没啥用……
jjx
16 小时 22 分钟前
哎,一直想入手创 13pro 联名版 128g+1t, 看着它从 2 万涨到 3 万
sherg98
16 小时 17 分钟前
很简单,大模型对显存的需求是刚性的,普通人也不可能去买很多张算力卡去组 gpu 服务器,AI MAX+ 395 虽然吐词速度不行但确实能跑,价格也相对来说比较友好
sherg98
16 小时 14 分钟前
真相同显存不得上两张 4090 48g 或者保修的话 rtx pro 6000 ,这个价格差的就多了
NiceKlaus
16 小时 7 分钟前
本地部署 1w 左右能行吗,单显卡预算

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://study.congcong.us/t/1210410

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX