这是一个简单的Python爬虫示例。
import requests
from bs4 import BeautifulSoup
url = "https://www.example.com/"
response = requests.get(url)
soup = BeautifulSoup(response.content, "html.parser")
links = []
for link in soup.find_all("a"):
href = link.get("href")
if href and href.startswith("http"):
links.append(href)
print(links)
这个程序使用了Python中的requests库和BeautifulSoup库来解析HTML文档并提取出所有的链接。首先,我们使用requests.get()方法来获取网页的响应。然后,我们把响应内容传递给BeautifulSoup对象,使用find_all()方法和"a"标签来查找所有的链接。最后,我们将所有的链接添加到一个列表中,并输出这个列表。
请注意法律规定,确保你的爬虫行为合法并遵守道德准则。