# -*- coding: utf-8 -*-
"""
Created on Thu Jun 12 09:37:48 2014
@author: lifeix
"""
import re
import urllib2
import cookielib
url = 'http://www.cnblogs.com/wendingding/tag/IOS%E5%BC%80%E5%8F%91/default.html?page='
#url = 'http://www.cnblogs.com/smileEvday/category/578973.html?page='
reg = '<a id="\w+" href="http://www.cnblogs.com/\w+/p/\w+.html">\s*\t*\n*\s*\t*\s*.*?\t*\n*\t*\s*</a>'
def startParse(author,page=1):
cj = cookielib.LWPCookieJar()
cookie_support = urllib2.HTTPCookieProcessor(cj)
opener = urllib2.build_opener(cookie_support,urllib2.HTTPHandler)
urllib2.install_opener(opener)
headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:14.0) Gecko/20100101 Firefox/14.0.1',
'Referer' : "http://www.cnblogs.com"}
flag = True
while flag == True:
nurl = url + str(page)
req = urllib2.Request(nurl,headers=headers)
resp = urllib2.urlopen(req)
data = resp.read()
regex = re.compile(reg,flags=re.MULTILINE)
result = regex.findall(data)
for d in result:
print d
if len(result) < 20:
flag = False
else:
page = page + 1
print 'finished----------------------page:%d'%page
if __name__ == '__main__':
startParse('',1)
使用python获取的文章列表的超链接以及标题
原创
©著作权归作者所有:来自51CTO博客作者mb61c46a7ab1eee的原创作品,请联系作者获取转载授权,否则将追究法律责任
使用python获取的文章列表的超链接以及标题
https://blog.51cto.com/u_15469972/4916036
使用python获取的文章列表的超链接以及标题
https://blog.51cto.com/u_15469972/4916036
举报文章
请选择举报类型
内容侵权
涉嫌营销
内容抄袭
违法信息
其他
补充说明
0/200
上传截图
格式支持JPEG/PNG/JPG,图片不超过1.9M

提问和评论都可以,用心的回复会被更多人看到
评论
发布评论
相关文章
-
【第3篇】python爬虫实战-个人主页文章列表获取
本文教程利用 Scrapy 框架实现一个网络爬虫,本文代码实现CSDN个人主页文章列表爬取,已实现自动翻页
python scrapy ide json .net -
python爬虫入门实战!爬取博客文章标题和链接!
一起py吧!
html 数据 正则表达式 python 开发者工具