1.技术选型
scrapy vs requests+beautifulsoup

requests和bs都是库,Scrapy是框架。
scrapy框架可以加入requests和bs。
scrapy是基于twisted,性能是最大的优势。
scrapy方便扩展,提供了很多内置的功能。
scrapy内置的css和xpath selector非常方便,bs最大的缺点就是慢

2.网页分类

静态网页
动态网页
webservice(restapi)

3.爬虫能做什么?

搜索引擎—-百度、google、垂直领域搜索引擎
推荐引擎—-今日头条、一点资讯
机器学习的数据样本
数据分析(如金融数据分析)、舆情分析。

4.正则表达式

^ 开头    '^b.*'----以b开头的任意字符

 $ 结尾    '^b.*3$'----以b开头,3结尾的任意字符

 * 任意长度(次数),≥0       

 ? 非贪婪模式,非贪婪模式尽可能少的匹配所搜索的字符串 '.*?(b.*?b).*'----从左至右第一个b和的二个b之间的内容(包含b)

 + 一次或多次

 {2} 指定出现次数2次

 {2,} 出现次数≥2次

 {2,5} 出现次数2≤x≤5

 | 或     例如,“z|food”能匹配“z”或“food”(此处请谨慎)。“[z|f]ood”则匹配“zood”或“food”或"zood"。
[] 中括号中任意一个符合即可(中括号里面没有分转义字符)   '[abc]ooby123'----只要开头符合[]中任意一个即可

 [^] 只要不出现[]的即可

 [a-Z] 从小a到大Z        '1[48357][0-9]{9}'----电话号码

 . 任意字符
\s 匹配不可见字符 \n \t    '你\s好'----可以匹配‘你 好’

 \S 匹配可见字符,即普通字符

 \w 匹配下划线在内的任何单词字符

 \W 和上一个相反
[\u4E00-\u9FA5] 只能匹配汉字

 () 要取出的信息就用括号括起来

 \d 数字

5.深度优先和广度优先
网站的树结构
深度优先算法和实现—-递归
广度优先算法和实现—-队列

6.爬虫去重策略

将访问过的url保存到数据库中。
将访问过的url保存到set中,只要o(1)【这是常数阶时间复杂度】的代价就可以查询url
100000000x2bytex50个字符/1024/1024/1024≈9G 一亿条数据,一条50字符
url经过md5等方法哈希后保存到set中(比较常用)

……..

7.字符串编码

计算机只能识别数字,文本转换为数字才能处理。计算机中8个bit作为一个字节,所以一个字节能表示最大的数字就是255.
计算机是美国人发明的,所以一个字节可以表示所有字符了,所以ASCII(一个字节)编码就成为美国人标准编码。
但是ASCII处理中文明显是不够的,中文不止255个汉字,所以中国制定了GB2312编码,用两个字节表示一个汉字。GB2312还把ASCII包含进去了,同理,日文,韩文等等上百个国家为了解决这个问题就都发展了一套字节的编码,标准就越来越多,如果出现多种语言混合就一定会出现乱码。
于是unicode出现了,将所有语言统一到一套编码里。

ASCII和unicode编码:
(1)字母A用ASCII编码十进制65,二进制01000001
(2)汉字‘中’已超多ASCII编码的范围,用unicode编码是20013,二进制01001110 00101101
(3)A用unicode编码中只需要前面补0,二进制是 00000000 01000001
乱码问题解决可,但是如果内容全是英文,unicode编码比ASCII需要多一倍的存储空间,同时如果传输需要多一倍的传输。

所以出现了可变长的编码“utf-8”,把英文变长一个字节,汉字3个字节。特别生僻的变成4-6字节。如果传输大量的英文,utf-8作用就很明显。

python做搜索框_搜索引擎