请教一个关于模型训练主机配置的问题

4 小时 45 分钟前
 jamme

主要是用来部署YOLO26做数据集训练和目标检测或追踪的,图片数据暂定 5000 张(其实数据有很多,但是暂定用于训练的数据上限是 5000 张)。

目前有一台 RX6600xt ,但是 directML 好像也不能使这张卡参与训练计算,上网查了一下好像是对 7000 系列以上的显卡支持的更好一些。

所以老板的意思是重新配一台 N 卡主机,但我之前没有使用 YOLO 训练的经验,不知道目前这个数量级的数据训练以及这个体量的模型该使用什么卡。咨询官网 AI 的话,就是无脑推荐 4090 、5090 这种大显存的卡。搞得我很头疼~

关于预算的话,老板只说了一句你看着办吧。但之前老板的意思是让我看看能不能把现在这台主机的显卡换成 RTX5070 ,后来我查了一下现在主机的电源,才 500W ,带不动 5070 ,才有了配新主机的这件事。所以我想着写个两三套配置单给老板看,低配高配都写一下,让老板决定选什么。

有没有有YOLO 训练+目标检测经验的 V 友给点建议?跪谢了~

185 次点击
所在节点    Local LLM
4 条回复
zhoukevin233
2 小时 44 分钟前
训练模型的话,主要就是看显存。我最近搞的是 YOLO11 ,batch_size 为 4 ,分辨率为 640 的情况下训练也需要 7.5GB 显存。给到你的话,低配 12GB 显存( RTX4070 ),高配自然是 5090 直接拉满,batch_size 开大是有利于模型训练的。
akuan96
2 小时 38 分钟前
之前用公司的 4090 做 YOLO 训练,千张图基本都是半天左右出结果,有问题还要调整重新训练,所以建议还是搞大显存的,不然会非常折磨,反正又不用你出钱😏
benz1
2 小时 36 分钟前
benz1
2 小时 32 分钟前
@benz1 显存和内存都很重要,Batch Size 的大小挺影响训练速度的。 现在自己训练千张的小模型都是使用 3L 的官方平台,整理数据集和模型都挺方便。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://study.congcong.us/t/1208538

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX