初试爬虫


前言

  通过前面章节的介绍,我们对什么是爬虫有了初步的认识,同时对如何爬取网页有了一个大概的了解。从本章起,我们将从理论走向实践,结合实际操作来进一步深化理解。

 由于使用python进行爬虫抓取页面可供使用的工具众多,比如requests、scrapy、PhantomJS、Splash等,并且对于抓取的页面解析的工具也很多。我们这里从最简单的开始,使用requests库和beautifSoup工具进行静态页面抓取和解析。

 等基本功扎实之后,我们可以使用更灵活多变的工具,不仅可以静态抓取,还可以动态抓取;不仅可以抓取单页面,还可以递归深度抓取。同时结合其他的渲染、存储、机器学习等工具,我们可以对数据进行处理、加工、建模、展示。

实战开始

 废话不多说,让我们开始今天的例子,抓取安徒生童话故事中的名篇《丑小鸭》。“工欲善其事,必先利其器”,在开始之前我们需要把准备工作做好,

  • 下载pycharm,并安装requests库和beautifSoup。安装结果如下:

安装命令:​​pip install beautifulsoup4​

Python之爬虫之Beautifulsoup之初试爬虫③_pycharm

Python之爬虫之Beautifulsoup之初试爬虫③_pycharm_02

开始爬虫的第一步,找到含有《丑小鸭》这篇童话故事的链接,我们这里使用的链接是:https://www.ppzuowen.com/book/antushengtonghua/7403.html

Python之爬虫之Beautifulsoup之初试爬虫③_python_03

 在找到我们的目标链接之后,第二步就是分析网页。分析什么呢?当然是分析我们要爬取的内容在哪里。

 根据我们前面的介绍,我们此次爬虫的目的是爬取丑小鸭这篇课文。根据这一目标,我们需要先来研究网页的构成。那么如何查看网页呢?一般是在浏览器的开发者模式下进行,对于chrome浏览器,我们可以使用快捷键F12进行查看,如图所示:

Python之爬虫之Beautifulsoup之初试爬虫③_pycharm_04

左边的是网页显示的内容,右边是网页的HTML文档。

通过对右边页面的分析,我们可以观察到,我们需要抓取的页面内容在一个

标签中:


Python之爬虫之Beautifulsoup之初试爬虫③_爬虫_05

 既然页面找到了,需要抓取的内容的位置也找到了,那么现在我们需要解决的一个问题是:如何使用代码快速的进行目标内容的位置定位?

 在理想的情况下,我们希望这个

标签有一个唯一的属性(通常为id或class),那么我们就可以直接通过这个属性进行位置定位。

 但是很遗憾的是,在我们这个目标标签

中,它没有任何属性,更别谈唯一属性了。既然直接访问的愿望落空了,那么只能使用间接的。

通常间接的方法有两种:

  • 第一种是找跟它相邻的某个可以快速定位的标签,然后再根据这两个标签tag之间的位置关系进行间接访问。在本次操作中,我们很容易找到

  • 标签的父标签div拥有唯一的class属性articleContent;
  • 第二种方式是一次把所有

  • 标签都找出来,然后使用挨个遍历的方式,找到目标的标签。事实上,在实际爬取过程中,这两种方式都有使用。

至于哪个更好,我们会根据实际情况进行分析、选择。在这里我们对两种方式都进行演示。

第一种方式

 我们根据

标签的父标签div拥有唯一的class属性articleContent找到div标签,然后根据父子关系找到p标签,再通过正则表达式对无用内容进行过滤,得到最终结果。

# -*- coding: utf-8 -*-
# @Author : 一凡

import requests
from bs4 import BeautifulSoup
# 正则模块
import re

# 爬取的网页
url = r"https://www.ppzuowen.com/book/antushengtonghua/7403.html"
response = requests.get(url)
response.encoding=None
result = response.text
# 再次封装,获取具体标签内的内容
bs = BeautifulSoup(result, 'html.parser')
psg = bs.select('.articleContent > p')
title = bs.select('title')[0].text.split('_')[0]
txt = ''.join(str(x) for x in psg)
res = re.sub(r'<.*?>', "", txt)
result = res.split("(1844年)")[0]
print('标题:', title)
print('原文:', result)

效果:

Python之爬虫之Beautifulsoup之初试爬虫③_html_06

实现的代码主要分为两部分:第一部分是页面的抓取,如:

# 爬取的网页链接
url = r"https://www.ppzuowen.com/book/antushengtonghua/7403.html"
response = requests.get(url)
response .encoding=None
result = response .text
print(result)

Python之爬虫之Beautifulsoup之初试爬虫③_爬虫_07

这部分内容与我们之前在浏览器的开发者模式下看到的HTML源码是一摸一样的。

第二部分是页面的解析。

 我们之前介绍过HTLML页面本质上是一棵DOM树,我们采用树遍历子节点的方式遍历HTML页面中的标签,如:

再次封装,获取具体标签内的内容

bs = BeautifulSoup(result, 'html.parser')
psg = bs.select('.articleContent > p')

 这里先将页面信息为xml的格式文档(注:HTML文档属于一种特殊类型的xml文档),然后根据css的语法找到p标签的内容。

第二种方式

我们按照最开始的方式写成的代码是这样的:

# 爬取的网页链接
url=r"https://www.ppzuowen.com/book/antushengtonghua/7403.html"
response = requests.get(url)
response .encoding=None
result = response .text
# 再次封装,获取具体标签内的内容
bs = BeautifulSoup(result,'html.parser')
# 具体标签
print("---------解析后的数据---------------")
# print(bs.span)
a = {}
# 获取已爬取内容中的p签内容
data = bs.find_all('p')
# 循环打印输出
for tmp in data:
print(tmp)
print('********************')

然后我们查看输出的结果却与预期并不相符,是这样的:

Python之爬虫之Beautifulsoup之初试爬虫③_爬虫_08

 获取的内容是分段的,并且还夹杂很多其他的没用的信息。事实上,这些在实际爬取过程中都是常见的,不是每次爬取都是一步到位,需要不停的调试。

 经过分析,我们可以使用表达式对无用信息进行过滤,同时使用字符串拼接函数进行拼接,得到我们预期的内容。

最终的代码如下:

# 爬取的网页链接
url=r"https://www.ppzuowen.com/book/antushengtonghua/7403.html"
response = requests.get(url)
response .encoding=None
result = r.text
# 再次封装,获取具体标签内的内容
bs = BeautifulSoup(result,'html.parser')
# 具体标签
print("---------解析后的数据---------------")
# print(bs.span)
a = {}
# 获取已爬取内容中的p签内容
data=bs.find_all('p')
result = ' '
# 循环打印输出
for tmp in data:
if '1844年' in tmp.text:
break
result+=tmp.text

print(result)

 以上我们通过两种方式讲解了如何爬取一些简单的网页信息。当然,对于爬取的内容,我们有时不仅是输出,可能还需要进行存储。

通常存储的方式采用的是文件和数据库形式,关于这些内容,我们将在后续进行详细介绍。

 如果对软件测试、接口测试、自动化测试、技术同行、持续集成、面试经验交流。感兴趣可以进到893694563,群内会有不定期的分享测试资料。

如果文章对你有帮助,麻烦伸出发财小手点个赞,感谢您的支持,你的点赞是我持续更新的动力。