背景

现在有很多自媒体平台,如头条号、搜狐号、大鱼号、百家号等,每个人都可以成为创作者发布自己的作品。如果想把某个作者的文章都下下来,一篇一篇的下载会很麻烦,而用爬虫则会很简单,顺便还能练练手。这里就以抓取规则比较比较简单的搜狐号来开到。

 

工具

pycharm、Python3、PC

库 os、 re、BeautifulSoup、requests、json、urllib.parse

思路

入口URL进入 --> 获取文章地址 --> 获取图片地址 --> 下载文章与图片

注:主线思路很简单,但还是会遇到很多小问题

开始

一、网站分析

1、先选定一个要爬取的自媒体账号,比如随便选的:

 

2、用fiddler或F12抓包,发现返回的数据包里面不包含连接。这说明连接应该都放在在某个请求里面,而这个请求返回的是json格式。

 

3、在请求列表里找,最终在这个里面看到了猫腻

 

用浏览器访问下试试,好多URL和title,就是这个了!

 

4、在看他的地址结构,pageNumber应该是第几页,xpt是每个自媒体账号的唯一id,pageSize是一页显示多少条信息。

 

5、点进一篇文章,发现文章内容在<article>标签内

 

6、分析完成后,可以正式敲代码了。

 

二、编码

1、先对输入的URL进行拆分,提取xpt

 

2、创建文件夹,存放爬取的资源

 

3、然后用pageNumber、xpt、pageSize拼接路径,获取保存URL的页面;将返回的数据转为json格式,解析地址;通过pageNumber自增,循环获取所有页面的地址。

 

4、将信息保存到本地txt文件

 

5、遍历获取地址对应的文章内容和图片

 

 

 

 

6、效果如下

 

 

 

 

 

优化

由于加了图片下载,单线程会比较慢,因此可考虑优化成 多线程,效率杠杠滴。

结语

获取.py源码和生成的.exe程序:链接:https://pan.baidu.com/s/1zGOrI5A60oMapRnQyYoG9g 
提取码:hkrh 

 

附件:

# -*- coding: utf-8 -*-

import sys, os
import re
import time
from bs4 import BeautifulSoup
import requests
import json
import urllib.parse




def get_url(xpt): # 获取URL集合
url_buf = [] # 存放URL
datas = []
pagenumber = 0 # 页数
for i in range(20): # 默认20页
pagenumber = pagenumber + 1
print(">> 解析第[%d]页" % pagenumber)
url_ori = r"https://mp.sohu.com/apiV2/profile/newsListAjax?xpt=" + xpt + "=&pageNumber=" + str(pagenumber) + r"&pageSize=10&categoryId=&_=1550238383382"
try:
html = requests.get(url_ori).json()
html_json = json.loads(html) # 转为json格式
except Exception as e:
print(e)
finally:
if(str(html_json["data"])=="[]"): # 空数据
break
else:
datas.append(html_json["data"]) # 存信息
print(datas[pagenumber-1])
print("解析完毕\r\n")

print(">> 分割地址:")
id = 0
if (os.path.exists("spider.txt")): # 如果已经存在
os.remove("spider.txt") # 删除该文件
for i in datas:
for j in i:
id = id + 1
title = urllib.parse.unquote(j["title"]) # utf8转中文显示
url = "http://" + j["url"].split("//")[1]
print("["+str(id)+"] ", title, " ", url)
url_buf.append("["+str(id)+"] "+title+" "+url) # 存入 名称+地址
with open("spider.txt", 'a+', encoding='utf-8') as fp:
fp.write("*" * 100 + "\n")
fp.write("["+str(id)+"] "+title+" "+url+"\n") # 写入本地文件
fp.close()
print(">> 地址信息已保存到本地")
return url_buf

def get_content(url_buf): # 获取地址对应的文章内容
each_title = "" # 初始化
each_url = "" # 初始化

splits_num = len(url_buf.split(" ")) # 以空格分割字符串
if(splits_num > 3): # 有多余空格,说明标题里含有空格了
each_title = url_buf.split(" ")[0] + url_buf.split(" ")[-2] # 拼接标题
else:
each_title = url_buf.split(" ")[0] + url_buf.split(" ")[1] # 拼接标题
each_title = re.sub(r'[\|\/\<\>\:\*\?\\\"]', "_", each_title) # 剔除不合法字符

filepath = rootpath + "/" + each_title # 为每篇文章创建文件夹
if(not os.path.exists(filepath)): # 若不存在,则创建文件夹
os.makedirs(filepath)
os.chdir(filepath) # 切换至文件夹

each_url = url_buf.split(" ")[-1] # 获得文章URL
headers = {
'User-Agent': r'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.109 Safari/537.36',
}
html = requests.get(each_url, headers=headers)
soup = BeautifulSoup(html.text, 'lxml')
article = soup.find(class_="article").find_all("p") # 查找文章内容位置
img_urls = soup.find("article").find_all("img") # 获得文章图片URL集

print("*" * 60)
print(each_title)
print(">> 保存文档 - ", end="")
for i in article:
line_content = i.get_text() # 获取标签内的文本
# print(line_content)
if(line_content != None): # 文本不为空
with open(each_title+r'.txt', 'a+', encoding='utf-8') as fp:
fp.write(line_content + "\n") # 写入本地文件
fp.close()
print("完毕!")
print(">> 保存图片 - %d张" % len(img_urls), end="")
for i in range(len(img_urls)):
pic_down = requests.get(img_urls[i]["src"])
with open(str(i)+r'.jpeg', 'ab+') as fp:
fp.write(pic_down.content)
fp.close()
print("完毕!\r\n")

global rootpath # 全局变量,存放路径
if __name__ == '__main__':

# url = "https://www.sohu.com/a/290059377_479499?sec=wd"
# html = requests.get(url)
# soup = BeautifulSoup(html.text, 'lxml')
# img = soup.find("article").find_all("img")
# print(img)
# print(img[0]["src"])

url = input("输入地址,(不输入则默认为机甲同盟个人主页):")
if(url == ""):
url = "https://mp.sohu.com/profile?xpt=b1NlSFRzMGJ5Sl84dnh2ZllseHMyMGxsejFVSUB3ZWNoYXQuc29odS5jb20="
xpt = url.split("=")[1]

html = requests.get(url)
soup = BeautifulSoup(html.text, 'lxml')
name = soup.find(class_="profile_title").get_text().strip() # 查找搜狐号
print("*"*60)
print("URL => ", url)
print("搜狐号 => ", name)
print("*" * 60)
print("\r\n")

rootpath = os.getcwd() + r"/spider/" + name
if(not os.path.exists(rootpath)): # 若不存在,则创建文件夹
os.makedirs(rootpath)
os.chdir(rootpath) # 切换至文件夹

url_buf = get_url(xpt)
for i in url_buf:
get_content(i)
print("\r\n>> 程序结束!<<")