其实所谓的上网就是用客户端的机器去请求目标网站的计算机,然后通过目标计算机反馈下载数据到本地的一个过程,只是用户获取数据时通过浏览器提交请求->下载网页代码->解析/渲染成页面。

Python中的爬虫究竟是什么?_爬虫

Python爬虫要做的是什么?

而爬虫程序要做的就是: 模拟浏览器发送请求->下载网页代码->只提取有用的数据->存放于数据库或文件中。

爬虫基本流程:

发送请求 ---> 获取响应内容 ---> 解析内容 ---> 保存数据

1、发起请求使用爬虫ip库向目标站点发起请求,即发送一个RequestRequest包含:请求头、请求体等。

2、获取响应内容如果服务器能正常响应,则会得到一个ResponseResponse包含:html,json,图片,视频等。

3、解析内容解析html数据:正则表达式,第三方解析库如Beautifulsoup,pyquery等解析json数据:json模块解析二进制数据:以b的方式写入文件。

4、分类保存数据如:excel表格、数据库文件。

如果我们把互联网比作一张大的蜘蛛网,那一台计算机上的数据便是蜘蛛网上的一个猎物,而爬虫程序就是一只小蜘蛛,沿着蜘蛛网抓取自己想要的猎物(数据)。

爬虫的定义: 向网站发起请求,获取资源后分析并提取有用数据的程序

爬虫的价值: 互联网中最有价值的便是数据,比如天猫商城的商品信息,链家网的租房信息,雪球网的证券投资信息等等,这些数据都代表了各个行业的真金白银,可以说,谁掌握了行业内的第一手数据,谁就成了整个行业的主宰,如果把整个互联网的数据比喻为一座宝藏,那我们的爬虫课程就是来教大家如何来高效地挖掘这些宝藏,掌握了爬虫技能,你就成了所有互联网信息公司幕后的老板,换言之,它们都在免费为你提供有价值的数据。

总结爬虫流程: 爬取--->解析--->存储

爬虫所需工具:

请求库:requests,selenium

解析库:正则,beautifulsoup,pyquery

存储库:文件,MySQL,Mongodb,Redis

爬虫常用框架: scrapy