• 用爬虫获取某个网站上面的图片,使用beautifulsoup解析
  • 代码:
import requests
import re
import numpy as np
from bs4 import BeautifulSoup
import os
from PIL import Image
import matplotlib.pyplot as plt
url = 'https://desk.zol.com.cn/dongman/xiaohuangren/'
data = requests.get(url).text
# 方法1:获取图片网址
# img=re.findall('src=("//img.ivsky.com/img/tupian/t/\d+/\d+/xiaohuangren-*\d*\.jpg") ',data)
# 方法2:获取图片网址
soup=BeautifulSoup(data) # 根据下载的数据创建bf对象
imglst=soup.find_all('img',src=True) # 查找所有img标签
img=[]
for i in imglst:
    img.append(i['src'])
# 爬取下载所有图片
if(not os.path.exists(r'E:/anaconda/img')):
    os.mkdir('E:/anaconda/img')
j=0
for i in img:
    rpimg=requests.get(""+i)  # 获取第i张图片网址
    j=j+1
    with open('E:/anaconda/img/'+'{}.jpg'.format(j), 'wb') as f:  # 新建文件
        f.write(rpimg.content)  # 保存文件
# 读取图片
x=Image.open('./img/1.jpg','r')  # 打开图片文件
plt.imshow(x)  # 显示图片
plt.axis('off')  # 关闭坐标轴
plt.show()