源码仅限于技术研究与学习。
windows 下启动Docker-Desktop后,进入爬虫根目录,运行命令
docker-compose up -d
docker ps -a
- docker环境启动之后,在Pycharm中配置python解释器(docker-compose),运行car/main.py
docker exec -ti car_spider bash
进入爬虫容器,cd /workspace
后运行scrapy crawl car_config
setting.py 中
以实际机子性能动态调控,这里我500是刚刚好跑满CPU
# Configure maximum concurrent requests performed by Scrapy (default: 16)
CONCURRENT_REQUESTS = 500