这里和 获取链接略有不同,不是得到链接到url,而是获取每个链接的文字内容
#!/opt/yrd_soft/bin/python import re import urllib2 import requests import lxml from bs4 import BeautifulSoup url = 'http://www.baidu.com' #page=urllib2.urlopen(url) page=requests.get(url).text pagesoup=BeautifulSoup(page,'lxml') for link in pagesoup.find_all(name='a',attrs={"href":re.compile(r'^http:')}): print link.get_text()