V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
父节点
42
相关节点
 显示 37 个更多的相关节点
localllm
V2EX  ›  Local LLM
主题总数 256 RSS JSON Feed
这个节点讨论在本地电脑或者局域网里运行 LLM(大语言模型)的技术细节
1  2  3  4  5  6  7  8  9  10 ... 13  
s2555 本地大模型多大显存够用?
s2555  •  1 天前  •  最后回复来自 nullyouraise
13
sqshanyao 求可靠本地 vibe coding,有八卡的 L20 服务器
sqshanyao  •  1 天前  •  最后回复来自 coefu
2
unt Gemma 4 31B 大概什么水平,本地部署是不是又成为现实了
unt  •  4 小时 1 分钟前  •  最后回复来自 xue777hua
47
RatioPattern 32B 本地 vibe coding 有能用的模型吗
RatioPattern  •  3 天前  •  最后回复来自 coefu
7
ahdw 闲置 16GB M1 Pro MBP 跑大模型
ahdw  •  3 天前  •  最后回复来自 ahdw
19
wali77 有人用 mac studio 测试过 gemma4 31b 16 吗
wali77  •  10 天前  •  最后回复来自 nrtEBH
4
Eleutherios 家用机带宽太小玩不转 local llm 啊
Eleutherios  •  3 天前  •  最后回复来自 Eleutherios
17
workbest 2 年以后的硬件和本地大模型
workbest  •  11 天前  •  最后回复来自 jackqian
26
workbest qwen 本地大模型的问题
workbest  •  15 天前  •  最后回复来自 workbest
3
turfbook 好奇有没有人用本地模型写代码?
turfbook  •  15 天前  •  最后回复来自 turfbook
3
weishao666 本地部署 deepseek 70B,回答乱码
weishao666  •  3 月 28 日  •  最后回复来自 gigishy
10
1  2  3  4  5  6  7  8  9  10 ... 13  
第 1 到 20 / 共 256 个主题
279 人收藏了这个节点
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2804 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 66ms · UTC 13:47 · PVG 21:47 · LAX 06:47 · JFK 09:47
♥ Do have faith in what you're doing.