前言

文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理。

作者: 向右奔跑



对爬虫爬取数据时的分页进行一下总结。分页是爬取到所有数据的关键,一般有这样几种形式:
1、已知记录数,分页大小(pagesize, 一页有多少条记录)

  • 已知总页数(在页面上显示出总页数)
  • 页面上没有总记录数,总页数,但能从分页条中找到总页数
  • 滚动分页,知道总页数
  • 滚动分页,不知道总页数

以上前三种情况比较简单,基本上看一下加载分页数据时的地址栏,或者稍微用Chrome – network分析一下,就可以了解分页的URL。

一、页面分析,获取分页URL

典型的如豆瓣图书、电影排行榜的分页。

Python爬电子书分页 python分页爬取page_分页


对于像以下这种分页,没有显示总记录数,但从分页条上看到有多少页的,一般的处理方法有两种:一是先把最后一页的页码抓取下来;二是一页一页的访问抓取,直到没有“下一页”。

Python爬电子书分页 python分页爬取page_Python爬电子书分页_02


二、用抓包工具,查看分页URL

Python爬电子书分页 python分页爬取page_Python爬电子书分页_03


通过抓包工具,获取了分页的URL,再进行总页数的分析,一般是进行计算,如这里,有文章总数量,每页显示的文章数(页大小),就可以计算出总页数。

看一下这个,七日热门文章的分页,比较有意思。这么一长串,是不是比较崩溃。

Python爬电子书分页 python分页爬取page_数据_04


这时候一般要缩短参数,确定关键参数。分页关键的参数是page=2,直接把url减少成这样:

Python爬电子书分页 python分页爬取page_抓包_05


看到就是我们所需要的数据。

再回过头来理解一下,为什么采用了这样一串的URL,可以通过查看response,发现响应的是xml数据(一段网页数据),也就是这里采用了异步加载(AJAX)。

Python爬电子书分页 python分页爬取page_数据_06


三、抓包分析,需要构造分页URL

这时候,通过抓包分析,还不能获取分页的URL。有时候是抓包到的URL直接放到地址栏也查看不到所要的分页数据,还有时候是分页的URL中有其他参数。

如简书用户“动态”数据分页url,抓包到的是

Python爬电子书分页 python分页爬取page_分页_07


这里就要了解如何获取max_id这个值。还有一个问题就是要判断是否到了最后一页。

如简书“投稿请求”数据的分页:

Python爬电子书分页 python分页爬取page_抓包_08


从抓包拿到的分页URL,访问时发现看到的不是我们所要的页面、数据。这时就是根据经验进行分析。基本方法还是结合网页源代码,查看chrome中的response。