Scrapy是一个快速的高层次的爬取和网页抓取框架,用于抓取网页并从页面中提取结构化的数据。Scrapy使用了一些组件,这些组件共同协作完成爬取任务。本文将详细介绍Scrapy中的几个主要组件,并给出如何使用这些组件的代码示例。

准备工作

确保已经安装了Scrapy:

pip install scrapy

创建一个Scrapy项目

创建一个新的Scrapy项目,可以使用以下命令:

scrapy startproject myspider

进入项目目录:

cd myspider

定义一个Item

Item 是保存爬取到的数据的容器。它的使用方法类似于Python的字典,但是提供了额外的保护机制来避免拼写错误或者分配错误的字段。

myspider/items.py 文件中定义你的item:

import scrapy

class MyItem(scrapy.Item):
    title = scrapy.Field()
    link = scrapy.Field()
    desc = scrapy.Field()

编写一个Spider

Spider 是Scrapy用于从单个网站(或者一组网站)抓取信息的类。它提供了一种为特定网站或页面编写爬取逻辑的方法。

myspider/spiders/ 目录下创建一个新的spider,例如 example_spider.py

import scrapy
from myspider.items import MyItem

class ExampleSpider(scrapy.Spider):
    name = 'example'
    allowed_domains = ['example.com']
    start_urls = ['http://example.com/']

    def parse(self, response):
        for sel in response.xpath('//ul/li'):
            item = MyItem()
            item['title'] = sel.xpath('a/text()').get()
            item['link'] = sel.xpath('a/@href').get()
            item['desc'] = sel.xpath('text()').get()
            yield item

这个例子中,parse 方法将会被调用来处理每一个请求到的Response对象。方法中,我们使用了XPath选择器来选取标题,链接和描述。Item被填充并yield回Scrapy引擎。

运行爬虫

运行你的spider:

scrapy crawl example

Scrapy组件

在Scrapy框架中,整个爬虫系统构成包括了以下几个关键组件:

  • Scrapy Engine(引擎):控制所有模块之间的数据流,并在某些动作触发时触发事件。
  • Scheduler(调度器):接受引擎发送的请求并将其入队,以便之后引擎请求。
  • Downloader(下载器):用于下载Scrapy Engine(引擎)发送的所有请求,并将网页内容返回给Spiders(爬虫)。
  • Spiders(爬虫):处理所有响应,并解析数据,发送新的请求。
  • Item Pipeline(项目管道):处理由Spider从web page中抽取的Item。
  • Downloader Middlewares(下载器中间件):位于Engine(引擎)和Downloader(下载器)之间的钩子框架,主要是处理Engine与Downloader之间的请求及响应。
  • Spider Middlewares(爬虫中间件):处理Spider的输入(Responses)和输出(Items及Requests)。

结语

Scrapy的组件化架构为编写专项爬虫提供了极大的灵活性和控制力,同时也保持了简单和易用性。通过上述的组件介绍和代码示例,你可以开始构建自己的Scrapy爬虫应用,提取和搜集网络上的数据。