scrapyd解决什么痛点?

1. 可以通过浏览器看爬虫的运行状态,包括时间,日志啊

2.可以通过curl直接运行爬虫和停止爬虫

1. 安装scrapyd

pip install scrapyd

 

2. 运行scrapyd

scrapyd

根目录下执行scrapyd

3.运行爬虫

curl http://localhost:6800/schedule.json -d project=default -d spider=spider2

4.停止爬虫

curl http://localhost:6800/cancel.json -d project=myproject -d job=你的jobId (取消爬虫)