做一个开箱即用的 stable diffustion 客户端有前途吗?

2023 年 7 月 12 日
 OhMyZzh

目前使用 sd 的门槛较高,无论是本地部署还是云端部署,就我自己而言,使用 autodl 上租的 gpu 来玩,每次启动都要花 5 分钟左右完成一大堆初始化操作,初次安装镜像更是麻烦,所以我在想能不能有一个开箱即用的 sd 客户端,自动连接云端镜像,对小白友好,当然使用客户端收取费用会比 audodl 贵一些,大家觉得这个想法是否有前途,或者说市面上已经有这样的产品了?

3611 次点击
所在节点    奇思妙想
22 条回复
cctrv
2023 年 7 月 12 日
Boyang
2023 年 7 月 12 日
秋叶懒人包
OhMyZzh
2023 年 7 月 12 日
@cctrv 这个貌似是消耗本地算力的,对于低配电脑玩家门槛还是很高啊
OhMyZzh
2023 年 7 月 12 日
@Boyang 这个只是镜像吧?还是需要部署才能使用,对于小白用户而言不算开箱即用
KahnKahn
2023 年 7 月 12 日
有前途,对标 figma
lithiumii
2023 年 7 月 12 日
有很多了啊,首先 novelai 不就是嘛,然后还有 mage.space 之类的,还有帮你训练 lora 的,结合 gpt api 的,等等
naka110
2023 年 7 月 13 日
LiblibAI 和吐司目前都提供了,而且还免费
OhMyZzh
2023 年 7 月 13 日
@naka110 试了下 liblibai ,竟然能一键添加模型,体验太好了,看来我的问题已经解决了
tozp
2023 年 7 月 13 日
程序员不要只关注技术,这个想法最大的阻碍在法律。
开源自己用没问题,给别人用也没问题,用它谋利属于商业行为,我记得 sd 许可证是不允许的。
OhMyZzh
2023 年 7 月 13 日
@tozp 感谢提醒,查了下 OpenRAIL-M 可以商用
murmur
2023 年 7 月 13 日
@OhMyZzh 本地玩耍 2060 级别的显卡就够了,门槛很高么
OhMyZzh
2023 年 7 月 13 日
@murmur 2060 少说 1000 块吧,autodl 上 3080 0.88/小时,按一天玩 2 小时算,1000 块可以玩 2 年
thetbw
2023 年 7 月 13 日
@OhMyZzh 两年后,2060 说不定还能 1500 卖出去
OhMyZzh
2023 年 7 月 13 日
@thetbw 行。。年化收益 25%是吧
mmdsun
2023 年 7 月 13 日
有前途,想用 AI 画图的人多,stable diffustion 部署麻烦。
skywang1994
2023 年 7 月 13 日
OhMyZzh
2023 年 7 月 13 日
@skywang1994 这个绝了
Boyang
2023 年 7 月 13 日
@OhMyZzh 他自己有一个启动器,对于小白来讲基本上已经算是开箱即用了,可以下载个看看
fao931013
2023 年 7 月 13 日
快马加编 图不够涩 狗头.jpg
OhMyZzh
2023 年 7 月 13 日

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://study.congcong.us/t/956278

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX