用 scrapy 玩爬虫的这么多 ,遂写了个 scrapy 的管理界面,各位大佬瞧瞧

2017 年 4 月 13 日
 modm

https://github.com/DormyMo/SpiderKeeper

主要实现 scrapy 工程的部署,抓取任务状态监控,定时启动爬虫等功能

支持多个 scrapyd 服务 ,方便爬虫集群的管理

后续等功能完善了之后 想支持更多爬虫框架来着

11843 次点击
所在节点    Python
18 条回复
allinwonder
2017 年 4 月 13 日
很厉害啊,用什么写的?
modm
2017 年 4 月 13 日
xss
2017 年 4 月 13 日
看着比 scrapyd 要好用...
simapple
2017 年 4 月 13 日
v2 上真是爬虫玩家多 而且高端玩家多
yanzixuan
2017 年 4 月 13 日
怒赞。
qile1
2017 年 4 月 13 日
windows 系统可以用不?
xrlin
2017 年 4 月 13 日
第 111 个赞
modm
2017 年 4 月 13 日
@qile1 应该可以,没测试过
modm
2017 年 4 月 13 日
@xrlin 👍
im67
2017 年 4 月 13 日
ui 可以的
forever139
2017 年 4 月 13 日
哈哈,前排支持
bestrenxs
2017 年 4 月 13 日
先赞一个!
netChen
2017 年 4 月 14 日
楼主强大,做成了我一直想做但却做不成的事,前排支持,然后给星
qsnow6
2017 年 4 月 19 日
非常好用!
作者的 Issues 回复的也很快
diveandwatch
2017 年 12 月 1 日
请问,上传那个 egg 是 build-egg 生成的 egg,还是 scrapyd-deploy 成功之后自己生成的那个 egg 文件
diveandwatch
2017 年 12 月 1 日
爬出来的数据放在 dbs 里面的 sqlite 数据库了吗?可是用可视化工具读不出来数据。
Redips
2018 年 4 月 24 日
不错,就是删除任务再新建,会提示达到最大工作量,而且人物也删除不掉
baitongda
2019 年 2 月 1 日
我想知道你是用了什么 python 的管理框架吗。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://study.congcong.us/t/354532

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX