:sparkling_heart: High available distributed ip proxy pool, powerd by Scrapy and Redis
Home Page:https://spiderclub.github.io/haipproxy/
Geek Repo:Geek Repo
Github PK Tool:Github PK Tool
luckyyezi opened this issue 6 years ago · comments
按照文档安装,都没有问题,进入项目目录后,执行命令: python scheduler_booter.py --usage crawler python scheduler_booter.py --usage validator init 提示is starting... 查看redis也有正常的schuler和spider数据,但是一直没有抓取到IP,redis里面也只有这三个KEY。 查看logs目录下的日志,竟然是空的。 不知道是不是哪一步执行的有问题?