chenzp19860810 / bilibili-user-information-spider

B站3亿用户信息爬虫(mid号,昵称,性别,关注,粉丝,等级)

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

bilibili-user-information-spider

B站3亿用户信息爬虫(mid号,昵称,性别,关注,粉丝,等级)

本项目最后更新于2018-6-4,可能会因为没有更新而失效。如已失效或需要修正,请提issue!

在写这个项目时,我还不会Python的协程编程,用协程可提升爬虫速度至少5倍,参考我的文章线程,协程对比和Python爬虫实战说明

声明

  • 代码、教程均为张思淡本人原创,且仅限于学习交流,请勿用于任何商业用途!

之前写了B站视频信息的爬虫,然后就想到了爬取B站的用户信息。
在2018年3月11号,B站的第3亿用户诞生了。

准备工作

我使用的是Python3,数据库用的是Python自带的sqlite,使用requests库爬取。
安装需要的库

pip install requests

本来我的打算是通过post来获取用户信息的,但发现这样做很容易被封。
在考虑良久后,我觉得通过用户的手机端页面来获取用户信息,这样不容易被封。
比如在手机上访问https://m.bilibili.com/space/2 这个页面,可以获取用户名,性别,等级的信息。
然后再通过api接口来获取用户的关注和粉丝数,如https://api.bilibili.com/x/relation/stat?jsonp=jsonp&vmid=2

{
  "code":0,
  "data":{
          "mid":0,
          "following":116,
          "whisper":0,
          "black":0,
          "follower":327153},
  "message":"0",
  "ttl":1}

使用requests库获取数据,用concurrent.futures的多线程来加快爬取的速度,我采用的是10线程爬取。

数据获取

B站对爬虫采取的是一旦发现,就封ip一天到5天不等。
但是如果使用代理,爬取总共数量3亿的用户信息需要花费非常多的时间。
我用过的最好的代理能一小时获取5万条用户信息,这样算下来需要6000小时才能爬完所有信息!
在累计爬到一亿多时,我发现我的ip被封的很频繁,于是就不再爬下去了,因为这3亿用户有太多的僵尸用户了。
比如:

从图上可以看出这一面的用户基本都是僵尸用户,除了少数几个有等级或者关注的。
应该是16年B站开放注册后僵尸用户一下子就多起来了。
我就不把自己爬到的全部数据放上来了,就前109万用户的数据放上来,在data.db里。

爬虫代码见 bilibili-user-information-spider.py
参考资料: bili-user

About

B站3亿用户信息爬虫(mid号,昵称,性别,关注,粉丝,等级)

License:MIT License


Languages

Language:Python 100.0%