从今天开始我会把我学习python爬虫的一些心得体会和代码发布在我现在的博客,好记性不如烂笔头,以便以后的我进行复习。

虽然我现在的爬虫还很幼小,希望有一天她能长得非常非常的强大。

--------------------2018.11.22---------------------------------------------------------------------------------------------------------------------------------

 

OK,废话少说。今天爬取的是电影天堂网站左边框的一个container。

python爬取vip电影网站代码通用 python自动爬取更新电影网站_html

 

环境我准备好了,所以我就开始了。

首先,为了我测试时的速度和不影响人家网站的服务器,我决定把电影天堂页面的html下载到本地

代码如下:

1 #下载网页
2 def downloadhtml():
3     url = 'https://www.dytt8.net'
4     headers = {'User-Agent':'Mozilla/5.0'}
5     r = requests.get(url,headers=headers)
6     with open('C:/Code/newhtml1.html','wb') as f:
7         f.write(r.content)
8 downloadhtml()

这里值得一提的是,抓取下来的HTML格式是二进制的,所以保存文件时要用wb。

 


 

保存好HTML文件,我就可以尽情地调戏,不对,调试这个网站了的数据。

第一步:分析数据

打开网页的源代码,我们发现我们需要的数据被装在一个ul标签里。

python爬取vip电影网站代码通用 python自动爬取更新电影网站_Code_02

Ctrl+F在源代码里查看<ul>标签,发现我们需要的ul标签是第三个标签。

python爬取vip电影网站代码通用 python自动爬取更新电影网站_数据_03

 

 

这样我们就知道该爬哪里了。


 

第二步:解析数据

刚才下载的网页现在可以用上了,定义一个函数让BeautifulSoup能用上这个HTML网页

如:soup = BeautifulSoup(html,'html.parser')里面的html参数就可以用htmlhandle这个变量填上。

1 def send_html():
2     path = 'C:/Code/newhtml1.html'
3     htmlfile=open(path,'r')
4     htmlhandle = htmlfile.read()
5     return htmlhandle

开始分析数据,

先贴代码吧:

1 def get_pages(html):
2     soup = BeautifulSoup(html,'html.parser')
3     for ul in  soup.find_all('ul')[2]:
4         if isinstance(ul,bs4.Tag):
5             Tag_name=ul.get_text()
6             Tag_href=ul.get('href')
7             if Tag_name!= '':
8                 print('名称:{},地址:{}'.format(Tag_name,Tag_href))

解释下代码

先用BeautifulSoup的find_all()函数找到所有ul标签,因为后面加了[2],所以找到是第三个ul标签。

在这里我们离我们的目标很近了。

但这里我们能发现find_all()遍历返回的值的类型是不同的,我们利用type(ul)就能发现,它其中参杂两种类型:

<class 'bs4.element.NavigableString'>
<class 'bs4.element.Tag'>
<class 'bs4.element.Tag'>

字符串和Tag,测试一下就能知道字符串类型是空的,我们需要的Tag类型。

所以用isinstance来判断是否是Tag类型,如果不是,就不要了。输出如下:

python爬取vip电影网站代码通用 python自动爬取更新电影网站_Code_04

 

我们发现,中间还参杂了一些无效的条目,仔细看上面就能发现它返回是有两个Tag类型的,其中一个是什么都没有装的,是导致这个无效条目的原因。

所以把这条无效的条目给过滤掉吧

if Tag_name!= '':
                print('名称:{},地址:{}'.format(Tag_name,Tag_href))

python爬取vip电影网站代码通用 python自动爬取更新电影网站_html_05

到这里,我们就完成了本次抓取。


下面附上总代码:

1 import requests
 2 import re
 3 from bs4 import BeautifulSoup
 4 import bs4
 5 
 6 def send_html():
 7     path = 'C:/Code/newhtml1.html'
 8     htmlfile=open(path,'r')
 9     htmlhandle = htmlfile.read()
10     return htmlhandle
11 
12 def get_pages(html):
13     soup = BeautifulSoup(html,'html.parser')
14     for ul in  soup.find_all('ul')[2]:
15         #print(type(ul))
16         if isinstance(ul,bs4.Tag):
17             Tag_name=ul.get_text()
18             Tag_href=ul.get('href')
19             if Tag_name!= '':
20                 print('名称:{},地址:{}'.format(Tag_name,Tag_href))
21 
22 get_pages(send_html())