Python +mysql 简易爬虫给新浪大 V 微博和文章做备份

2018 年 7 月 2 日
 hubqin

写了个爬虫定期抓取新浪指定用户的微博和文章,以防哪天失联了还能看备份。 GitHub: https://github.com/HubQin/sinaCrawlerV

各文件功能:

使用:

4954 次点击
所在节点    Python
9 条回复
Sanko
2018 年 7 月 2 日
支持
把微博热搜也抓一下,就能看出来哪些是用钱买的空降热搜了
ACool
2018 年 7 月 2 日
我最近也写了一个微博的爬虫,并且对微博用户信息进行了分析 https://github.com/starFalll/Spider
Macuilxochitl
2018 年 7 月 3 日
mark,正好想备份下自己微博
winsky
2018 年 7 月 3 日
以前也搞过一个类似的项目,跑的很稳定,多线程抓取
hubqin
2018 年 7 月 3 日
@Sanko 多谢支持!可以试一下。
JohnChiu
2018 年 7 月 14 日
弱弱地问一下,在哪里指定抓取哪个用户呢?在 config.pypost.py 中都没看出来~
hubqin
2018 年 7 月 16 日
@JohnChiu 详细说明已添加到附言,请查看。
JohnChiu
2018 年 7 月 16 日
@hubqin #7 感谢!希望以后能爬取微博中的图片~
hubqin
2018 年 7 月 16 日
@JohnChiu 计划把图片的 url 保存下来

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://study.congcong.us/t/467626

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX