tuotoo / wechat_spider

微信公众号爬虫 (基于中间人截获的爬虫核心实现,支持批量爬取公众号所有历史文章)

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

wechat_spider

微信公众号爬虫 (支持全自动化批量爬取微信公众号所有文章 Go语言实现)

注意

  • 开源代码仅限技术分享交流,请充分尊重公众号作者的知识产权以及劳动成果,同时作为有素质的爬虫开发人员请控制好抓取的频率,本人概不承担任何基于本代码实现的工程引起的责任或纠纷.

  • 此项目是微信公众号批量自动化爬虫的核心实现, 面向开发者开源, 可以当做go语言包引入到自己项目中, 完整产品必须二次开发实现,QQ交流群: 563954381

  • 微信的防作弊一直在不断更新完善,过于频繁的抓取可能导致微信账号被封禁,在需要大量抓取的任务请使用小号或者测试号进行

文档指南

客户端:

android,iPhone等微信客户端平台, win和osx的微信客户端暂不兼容

代理协议: http && https, https需要导入certs文件夹的goproxy证书,并且添加受信权限,详细教程请google

安装

go1.7为作者已测试稳定版本 (go1.8有证书问题,请降级安装) go get github.com/tuotoo/wechat_spider

代理服务端

通过Man-In-Middle 代理方式获取微信服务端返回,自动模拟请求自动分页,抓取对应点击的所有历史文章

package main

import (
	spider "github.com/tuotoo/wechat_spider"
)

func main() {
	var port = "8899"
	spider.InitConfig(&spider.Config{
		Verbose:    false, // Open to see detail logs
		AutoScroll: false, // Open to crawl scroll pages
	})
	spider.Regist(spider.NewBaseProcessor())
	spider.Run(port)
}

  • 上面贴的是一个精简的服务端,拦截客户端请求,将微信文章url打印到终端
  • js跳转由于微信新规则已经不可用 如果想自定义输出源以及实现批量自动化爬取,可以实现Processor接口的OutputNextBiz方法, 参考 custom_output_server.go
  • js跳转由于微信新规则已经不可用 抓取阅读数,点赞数请实现Processor接口的OutputNextUrl方法,参考custom_output_detail_server.go
  • 微信会屏蔽频繁的请求,所以历史文章的翻页请求调用了Sleep()方法, 默认每个请求休眠50ms,可以根据实际情况自定义Processor覆盖此方法

客户端使用:

(确保客户端 能正常访问 代理服务端的服务)

  • Android客户端使用方法: 运行后, 设置手机的代理为 本机ip 8899端口, 打开微信客户端, 点击任一公众号查看历史文章按钮, 即可爬取该公众号的所有历史文章(已经支持自动翻页爬取)
  • win/mac客户端,设置下全局代理对应 代理服务端的服务和端口,同理点击任一公众号查看历史文章按钮

批量自动化

  • js跳转由于微信新规则已经不可用 动态修改js实现批量化(不推荐使用,因为不方便控制),参考custom_output_server.go

  • 模拟点击实现批量自动化

Go版本(强烈推荐), 用法参考 robot-demo.go

适用于Mac && Windows

Python版本(比较麻烦,不推荐使用)

只适用于windows端 :  Windows客户端获取批量公众号所有历史文章方法,对应原理请参考 http://stackbox.cn/2016-07-21-weixin-spider-notes/ ,同时也感谢博文作者提供此windows模拟点击的思路 
  1. 要求安装windows +  微信pc版本 + ActivePython3 + autogui, 设置windows下全局代理对应 代理服务端的服务和端口
  2. 修改 win_client.py 中的 bizs参数, 通过pyautogui.position() 瞄点设置 first_ret, rel_link 坐标
  3. 在examples目录下面, 执行 python win_client.py 将自动生成链接,模拟点击

配置说明

  • AutoScroll : 自动翻页,必须关注后才能翻页
  • Compress : 过滤其他域的请求,节省带宽
  • Verbose : 是否打印一些log
  • SleepSecond : 翻页请求休眠时间最大值

TODO

  • 点赞数,阅读数 ← Complete!
  • 过滤其他请求(图片,视频等),节省带宽开销 ← Complete!
  • 本地缓存的清理,防止页面的请求不经过服务代理 ← Complete!
  • 评论(我个人觉得这个东西是没什么意义的)

About

微信公众号爬虫 (基于中间人截获的爬虫核心实现,支持批量爬取公众号所有历史文章)


Languages

Language:Go 100.0%