为什么诸位老哥的爬虫的都是自己写的,不用 scrapy 呢?

2019 年 9 月 18 日
 wellhome

我研究了半天 scrapy 发现搞的太复杂了。 除非大规模的爬, 一般 爬个几个站 不若自己写的方便。 不知是不是我打开 scrapy 的方式有问题。 我看到大家都在推崇 scrapy。

6076 次点击
所在节点    问与答
26 条回复
chengxiao
2019 年 9 月 18 日
小规模用 scrapy 才快吧......几句业务 就 ok 了
BooksE
2019 年 9 月 18 日
我十几个站都用 scrapy 爬的。。scrapy 很好用
WuMingyu
2019 年 9 月 18 日
可以写个 scrapy 的模版,用的时候 copy 下,再改改一些业务代码
ClericPy
2019 年 9 月 18 日
自己的 async await, 为什么要折腾 twisted, 后者作者倒是挺厉害... 能把 guido 老爹气出门去
d5
2019 年 9 月 18 日
小折腾用 requests + pyquery 梭哈
niknik
2019 年 9 月 18 日
emmm,就我目前的站点数据,都用不上 scrapy。。。。直接脚本了

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://study.congcong.us/t/601693

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX