scrapyd解决什么痛点?
1. 可以通过浏览器看爬虫的运行状态,包括时间,日志啊
2.可以通过curl直接运行爬虫和停止爬虫
1. 安装scrapyd
2. 运行scrapyd
根目录下执行scrapyd
3.运行爬虫
curl http://localhost:6800/schedule.json -d project=default -d spider=spider2
4.停止爬虫
curl http://localhost:6800/cancel.json -d project=myproject -d job=你的jobId (取消爬虫)