关于Python的爬虫的一些数据提取的方法总结
- 第一种 : 正则表达式
- 2. 正则表达式相关注解
- 2.1 数量词的贪婪模式与非贪婪模式
- 2.2 常用方法
- 第二种:bs4 的使用
- 第三种 : Xpath
- 第四种 : jsonPath
- 3.1 json.loads()
- 3.2 json.dumps()
- 3.3 json.dump()
- 使用这个的好处
第一种 : 正则表达式
- 正则表达式是 对于it来说最常用的一个,就是用事先定义好的一些特定的字符,及这些特定的组合,组成一个"规则字符串",
- 规则
模式 | 描述 |
^ | 匹配字符串的开头 |
$ | 匹配字符串的末尾 |
. | 匹配任意字符,除了换行符,当re.DOTALL标记被指定时,则可以匹配包括换行符的任意字符 |
[…] | 用来表示一组字符,单独列出:[amk] 匹配 ‘a’,‘m’或’k’ |
[^…] | 不在[]中的字符:[^abc] 匹配除了a,b,c之外的字符 |
re* | 匹配0个或多个的表达式 |
re+ | 匹配1个或多个的表达式 |
re? | 匹配0个或1个由前面的正则表达式定义的片段,非贪婪方式 |
re{ n} | |
re{ n,} | 精确匹配n个前面表达式 |
re{ n, m} | 匹配 n 到 m 次由前面的正则表达式定义的片段,贪婪方式 |
a | b |
(re) | G匹配括号内的表达式,也表示一个组 |
(?imx) | 正则表达式包含三种可选标志:i, m, 或 x 。只影响括号中的区域 |
(?-imx) | 正则表达式关闭 i, m, 或 x 可选标志。只影响括号中的区域 |
(?: re) | 类似 (…), 但是不表示一个组 |
(?imx: re) | 在括号中使用i, m, 或 x 可选标志 |
(?-imx: re) | 在括号中不使用i, m, 或 x 可选标志 |
(?#…) | 注释 |
(?= re) | 前向肯定界定符。如果所含正则表达式,以 … 表示,在当前位置成功匹配时成功,否则失败。但一旦所含表达式已经尝试,匹配引擎根本没有提高;模式的剩余部分还要尝试界定符的右边。 |
(?! re) | 前向否定界定符。与肯定界定符相反;当所含表达式不能在字符串当前位置匹配时成功 |
(?> re) | 匹配的独立模式,省去回溯 |
\w | 匹配字母数字及下划线 |
\W | 匹配非字母数字及下划线 |
\s | 匹配任意空白字符,等价于 [\t\n\r\f]. |
\S | 匹配任意非空字符 |
\d | 匹配任意数字,等价于 [0-9] |
\D | 匹配任意非数字 |
\A | 匹配字符串开始 |
\Z | 匹配字符串结束,如果是存在换行,只匹配到换行前的结束字符串。c |
\z | 匹配字符串结束 |
\G | 匹配最后匹配完成的位置 |
\b | 匹配一个单词边界,也就是指单词和空格间的位置。例如, ‘er\b’ 可以匹配"never" 中的 ‘er’,但不能匹配 “verb” 中的 ‘er’ |
\B | 匹配非单词边界。‘er\B’ 能匹配 “verb” 中的 ‘er’,但不能匹配 “never” 中的 ‘er’ |
\n, \t, 等. | 匹配一个换行符。匹配一个制表符。等 |
\1…\9 | 匹配第n个分组的内容 |
\10 | 匹配第n个分组的内容,如果它经匹配。否则指的是八进制字符码的表达式 |
[\u4e00-\u9fa5] | 中文 |
2. 正则表达式相关注解
2.1 数量词的贪婪模式与非贪婪模式
正则表达式通常用于在文本中查找匹配的字符串
Python里数量词默认是贪婪的(在少数语言里也可能是默认非贪婪),总是尝试匹配尽可能多的字符;非贪婪的则相反,总是尝试匹配尽可能少的字符
例如:正则表达式”ab*”如果用于查找”abbbc”,将找到”abbb”。而如果使用非贪婪的数量词”ab*?”,将找到”a”
2.2 常用方法
- re.match
- re.match 尝试从字符串的起始位置匹配一个模式,如果不是起始位置匹配成功的话,match()就返回none
- 函数语法:
re.match(pattern, string, flags=0)
- re.search
- re.search 扫描整个字符串并返回第一个成功的匹配。
- 函数语法:
re.search(pattern, string, flags=0)
- re.sub
- re.sub 替换字符串
re.sub(pattern,replace,string)
- re.findall
- re.findall 查找全部
re.findall(pattern,string,flags=0)
第二种:bs4 的使用
- bs4 就是Beautiful Soup 的简称,这是一个工具箱,通过解析文档为用户提供需要抓取的数据,
- 使用这个不需要在编码的上面考虑,他会自动转换为utf-8编码。
- 但是使用这个的前提的就是网页是完整的,但是现在的网页大多规范化,所以都是可以用的
- 官网: http://beautifulsoup.readthedocs.io/zh_CN/latest/
- bs4 必须使用一种解析器,如果你没有安装其他的HTML解析器,他会默认使用自带的解析器,但是lxml 解析器更加强大,速度更快,推荐安装
- 对于 四种解析器的对比
解析器 | 使用方法 | 优势 | 劣势 |
Python标准库 | BeautifulSoup(markup, “html.parser”) | 1. Python的内置标准库 2. 执行速度适中 3.文档容错能力强 | Python 2.7.3 or 3.2.2)前 的版本中文档容错能力差 |
lxml HTML 解析器 | BeautifulSoup(markup, “lxml”) | 1. 速度快 2.文档容错能力强 | 需要安装C语言库 |
lxml XML 解析器 | BeautifulSoup(markup, [“lxml”, “xml”]) BeautifulSoup(markup, “xml”) | 1. 速度快 2.唯一支持XML的解析器 3.需要安装C语言库 | |
html5lib | BeautifulSoup(markup, “html5lib”) | 1. 最好的容错性 2.以浏览器的方式解析文档 3.生成HTML5格式的文档 4.速度慢 | 不依赖外部扩展 |
- 对于bs4 有四大对象种类
- Tag
- navigableString
- BeautifulSoup
- Comment
- 更加细致的编写的方法,可以去官网查看
第三种 : Xpath
- 相对于其他的方法,我更加的喜欢这种方法,因为更加的方便
- 官网 : http://lxml.de/index.html
- w3c :http://www.w3school.com.cn/xpath/index.asp
- xpath 是一门在XML文档中查找信息的语言,
- 是以节点来表达关系的
- 父(Parent)
- 子(Children)
- 同胞(Sibling)
- 先辈(Ancestor)
- 后代(Descendant)
- 选取节点
- 常用的路径表达式
表达式 | 描述 |
nodename | 选取此节点的所有子节点 |
/ | 从根节点选取 |
// | 从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置 |
. | 选取当前节点 |
… | 选取当前节点的父节点 |
@ | 选取属性 |
- 通配符
XPath 通配符可用来选取未知的 XML 元素。
通配符 | 描述 | 举例 | 结果 |
* | 匹配任何元素节点 | xpath(‘div/*’) | 获取div下的所有子节点 |
@* | 匹配任何属性节点 | xpath(‘div[@*]’) | 选取所有带属性的div节点 |
node() | 匹配任何类型的节点 |
- 选取若干路径
通过在路径表达式中使用“|”运算符,您可以选取若干个路径
表达式 | 结果 |
xpath(’//div | 获取所有的div与table节点 |
- 谓语
谓语被嵌在方括号内,用来查找某个特定的节点或包含某个制定的值的节点
表达式 | 结果 |
xpath(’/body/div[1]’) | 选取body下的第一个div节点 |
xpath(’/body/div[last()]’) | 选取body下最后一个div节点 |
xpath(’/body/div[last()-1]’) | 选取body下倒数第二个节点 |
xpath(’/body/div[positon()< 3]’) | 选取body下前个div节点 |
xpath(’/body/div[@class]’) | 选取body下带有class属性的div节点 |
xpath(’/body/div[@class=“main”]’) | 选取body下class属性为main的div节点 |
xpath(’/body/div[price>35.00]’) | 选取body下price元素大于35的div节点 |
第四种 : jsonPath
这个是Python自带的轻量级的数据交换格式,这个与XML相较比不相上下
3.1 json.loads()
- Python中的json 模块
- 提供了四个功能 : dumps,dump,loads,load 用于字符串和Python数据类型进行转换
把Json格式字符串解码转换成Python对象 从json到python的类型转化对照如下:
import json
strList = '[1, 2, 3, 4]'
strDict = '{"city": "北京", "name": "范爷"}'
json.loads(strList)
# [1, 2, 3, 4]
json.loads(strDict) # json数据自动按Unicode存储
# {u'city': u'\u5317\u4eac', u'name': u'\u5927\u732b'}
3.2 json.dumps()
实现python类型转化为json字符串,返回一个str对象 把一个Python对象编码转换成Json字符串
从python原始类型向json类型的转化对照如下:
# json_dumps.py
import json
listStr = [1, 2, 3, 4]
tupleStr = (1, 2, 3, 4)
dictStr = {"city": "北京", "name": "范爷"}
json.dumps(listStr)
# '[1, 2, 3, 4]'
json.dumps(tupleStr)
# '[1, 2, 3, 4]'
# 注意:json.dumps() 序列化时默认使用的ascii编码
# 添加参数 ensure_ascii=False 禁用ascii编码,按utf-8编码
json.dumps(dictStr)
# '{"city": "\\u5317\\u4eac", "name": "\\u5927\\u5218"}'
print(json.dumps(dictStr, ensure_ascii=False))
# {"city": "北京", "name": "范爷"}
3.3 json.dump()
将Python内置类型序列化为json对象后写入文件
import json
listStr = [{"city": "北京"}, {"name": "范爷"}]
json.dump(listStr, open("listStr.json","w"), ensure_ascii=False)
dictStr = {"city": "北京", "name": "范爷"}
json.dump(dictStr, open("dictStr.json","w"), ensure_ascii=False)
使用这个的好处
- 如果网页是用ajax来进行 数据交互的,
- 使用jsonPath 就是可以直接使用url 来进行获取数据,相对于其他就更加的方便
- 示例
- 我们以拉勾网城市JSON文件 http://www.lagou.com/lbs/getAllCitySearchLabels.json 为例,获取所有城市
from urllib.request import urlopen
from urllib.request import Request
import jsonpath
import json
url = 'http://www.lagou.com/lbs/getAllCitySearchLabels.json'
request =Request(url)
response = urlopen(request)
html = response.read()
# 把json格式字符串转换成python对象
jsonobj = json.loads(html)
# 从根节点开始,匹配name节点
citylist = jsonpath.jsonpath(jsonobj,'$..name')
print(citylist)
print(type(citylist))
fp = open('city.json','w')
content = json.dumps(citylist, ensure_ascii=False)
print(content)
fp.write(content)
fp.close()