原理也很简单,html链接都是在a元素里的,我们就是匹配出所有的a元素,当然a可以是空的链接,空的链接是None,也可能是无效的链接。

我们通过urllib库的request来测试链接的有效性。
当链接无效的话会抛出异常,我们把异常捕获出来,并提示出来,没有异常就是有效的,我们直接显示出来就好了。

需要用到的技术:
python+selenium
python+selenium基本环境搭建

urllib.request
这是python自带的,直接就可以使用。

# -*- coding: GBK -*-
from selenium import webdriver  
import urllib.request
from urllib.request import URLError

# 调用chrome浏览器并后台运行
option=webdriver.ChromeOptions()
option.add_argument('headless')
driver = webdriver.Chrome(chrome_options=option)

driver.get("http://www.tencent.com/")   # 要测试的页面
urls = driver.find_elements_by_xpath("//a")   # 匹配出所有a元素里的链接

print("当前页面的可用链接如下:")

for url in urls:
	u=url.get_attribute('href')
	if u == 'None':   # 很多的a元素没有链接,所有是None
		continue
	try:
		response=urllib.request.urlopen(url.get_attribute("href"))   # 可以通过urllib测试url地址是否能打开
	except:
		print('Error url:   ' + url.get_attribute('href'))   # 把测试不通过的url显示出来
	else:	
		print(url.get_attribute("href"))   # 测试通过的url展示出来

driver.close()

运行成功效果图:

python 爬虫触发按钮 python 爬虫点击所有链接_后台运行