没啥废话,直接开始吧,新建一个Python文件,对着练习就行了。 可以添加print查看程序执行情况。

from bs4 import BeautifulSoup
#测试的网页源码
html_doc = """    
<html>
		<head>
				<title>The Dormouse's story</title>
		</head>
		<body>
    <p class="story">Once upon a time there were many children and their names were
    <a rel="nofollow" href="http://example.com/elsie" class="sister" id="link1">Elsie</a>,
    <a rel="nofollow" href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
    <a rel="nofollow" href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
    <a rel="nofollow" href="http://example.com/Bob" class="sister" id="link4">Bob</a>;
    <a rel="nofollow" href="http://example.com/King" class="brother" id="link5">King</a>;
    <a rel="nofollow" href="http://example.com/Mary" class="sister" id="link6">Mary</a>;
    <a rel="nofollow" href="http://example.com/Target" class="sister" id="link7">Target said:“I am very strong”</a>;
    <a rel="nofollow" href="http://example.com/Jack" class="brother" id="link8">Jack</a>;
    and they lived at the bottom of a well.
    </p>


				<p class="story">...</p>
"""
	
bs = BeautifulSoup(html,'lxml')   #使用lmxl进行解析html

doc = bs.prettify    #把代码格式化输出

doc = bs.title.string   #获取title标签的内容
doc = bs.title.text    #同样是获取title标签的内容
doc = bs.a.text    #获取a标签的内容
doc = bs.a.string  #获取a标签的内容

doc = bs.title   #获取title标签

doc = bs.head   #获取出head标签

doc = bs.body.a  #获取body下的a标签,但是只是打印第一个,镶嵌选择

doc = bs.p['class']   #获取p标签的属性class属性

doc = bs.find_all('a')   #获取所有的a标签

doc = bs.find('a')   #查找a标签,只是返回查找的第一个

doc = bs.a.parent   #获取a标签的父标签

doc = bs.a.parents   #获取a标签的祖先标签
#print(type(doc))   #祖先标签是generator类型,通过for循环打印
#for item in doc:
#    print(item)

doc = bs.a.next_sibling  #获取a标签的下一个兄弟节点
#print(doc)
#for item in doc:   获取所有兄弟节点靠for循环输出
#    print(item)

#find_next_silbings()  返回后面的所有兄弟标签
#find_previous_sibilings()  返回前面的所有兄弟标签
#find_next_silbing()  返回后面的第一个兄弟标签
#find_previous_sibiling()  返回前面的第一个兄弟标签


doc = bs.find_all('a')  #查找所有的a标签

doc = bs.find_all(attrs={'id':'link1'})   #通过属性查找所有的标签
doc = bs.find_all(attrs={'id':'link3'})   #通过属性查找所有的标签

doc = bs.find_all(id='link3')   #通过id直接查找,而不是通过字典查找
doc = bs.find_all(class_='brother')   #class后面有个 _


doc = bs.find_all(text='Target') #根据文本内容查找,文本内容必须要完全匹配才能查找上,这个就找不到
doc = bs.find_all(text='Bob')  #这个能查找上

#find_all_next()  返回节点后所有符合条件的节点
#find_next()   返回节点后第一个符合条件的节点


doc = bs.select('#link3')  #这里的select是bs中内置的css选择器,可以直接通过css选择
doc = bs.select('.brother')  #通过id进行查找
doc = bs.select('p a')  #获取p标签下的所有a标签


doc = bs.select('a')   #获取所有的a标签,并输出每个的href的属性内容,需要通过for循环输出
#for item in doc:
#    print(item['href'])

doc = bs.select('a')   #获取所有的a标签,并输出每个标签的内容,需要通过for循环输出
#for item in doc:
#    print(item.text)

实战:爬去豆瓣上的指定的电影信息:

import requests
from bs4 import BeautifulSoup
from urllib.parse import quote
import re

def write_info(head,body):   #将获得信息写入txt
		with open('moveinfo.txt','a',encoding='utf-8') as f:
				f.write(head+body+'\n\n')
				f.close()

def get_info(type,url,name):   #获取演员,上映时间...等详细信息
		response = requests.get(url).text
		doc = BeautifulSoup(response,'lxml')
		info = doc.select('#info')       #查找到info标签
		for item in info:
				head = type + ":" + name
				print('正在加载 ',type,":","《" +name+ "》",' 信息......')
				print(head)
				item = item.text
				write_info(head,item)

def get_url(search):
		url = 'https://www.douban.com/search?cat=1002&q=' + quote(search)  #对搜索的内容进行编码
		response = requests.get(url)   #发起请求
		doc = BeautifulSoup(response.text,'lxml')  #使用bs进行解析
		doc = doc.find_all('h3')
		doc = str(doc)
		pattern = re.compile('<h3>.*?<span>\[(.*?)\]</spa.*?href="(.*?)".*?target.*?>(.*?)</a>',re.S)
		result = re.findall(pattern,doc)
		for item in result:
			print('====================================================')
			get_info(item[0],item[1],item[2])

if __name__ == '__main__':
		search = input('请输入要收集的电影信息:')    
		get_url(search)