Dynamic file detection tool based on crawler 基于爬虫的动态敏感文件探测工具
Geek Repo:Geek Repo
Github PK Tool:Github PK Tool
zer0yu opened this issue 8 years ago · comments
为什么要爬两次
e...第一次网卡了结果不完全,数据被删除了。。。然后发现不能第二次爬
试试Scrapy的暂停和恢复采集功能。
ok,解决了,工具很赞