GreenJoson / Crawler

:snake:A collection of simple Python crawlers.

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

Python3 爬虫合集

人生苦短, 我用Python!

Table of Contents

X
嗶哩嗶哩 豆瓣 优酷 Pixiv 网易云 微博 知乎 百度 微软 其他

Bilibili

  • [Usage]: python danmu.py $url
  • [Example]: python danmu.py https://www.bilibili.com/video/av9933492/
bili-logo
  • 使用方法:将要爬取的视频链接写入 'bili-pendant.txt'
bili-pendant
bili-mad

豆瓣

douban
  • 根据相册 id 爬取所有图片,并保存到对应 id 目录下
douban

优酷

youku

Pixiv

pixiv首页轮换图

网易云

  • 网易云获取歌曲 APIhttp://music.163.com/song/media/outer/url?id={song_id}.mp3
  • 只需要传入对应歌曲的 song_id 即可

微博

微博亚洲新歌榜

知乎

  • 使用前需要更新问题 id, 填入 Cookie, include 应该不需要更新
  • 返回未验证方式是因为没有给headers传递 X-API-VERSION, X-UDID, authorization 等参数
  • 问题来自知乎一位朋友问我, 因此做的比较粗糙, 没有详细提取数据, 仅将答主提取出来
  • 得到的一些答主 数据

百度

  • [Usage]: python danmu.py $pid
  • [Example]: python getTiebaPics.py 2271504759
  • [Usage]: python3 getBaiduPics.py [Word] [pages = 1]
  • [Example]: python3 getBaiduPics.py 猫 30
  • 注: 图片将保存在关键词的同名目录下。

微软

bing
screenshot

其他

爬取煎蛋网妹子图

  • 问题 来自 鱼C互助区
  • 代码
    • 此代码并没有加下载图片的函数。因为我之前试过爬微博图片,与其自己写下载函数,倒不如把链接保存下来,全部扔到迅雷来下载,那样速度快多了
  • 有时间改成多线程
  • 有时间将爬取专辑的函数加上
堆糖·古风
慕课网课程
好特壁纸

About

:snake:A collection of simple Python crawlers.

License:MIT License


Languages

Language:Python 100.0%