使用urllib和urllib2抓取网页:
# -*- coding:UTF-8 -*-
import urllib2
import urllib
# 1、抓取网页
response = urllib2.urlopen("http://www.baidu.com/")
print response.read()
'''
分析:
response = urllib2.urlopen("http://www.baidu.com/")
调用urllib2的urlopen方法,传入一个url,这个网址的协议是http,也可以使用ftp,file,https等
urlopen接受三个参数:
urlopen(url, data, timeout)
第一个url就是URL地址,
第二个data是访问URL时要传送的数据,
第三个timeout是设置超时时间。
第二三个参数可以不传送,data默认为空,timeout默认为socket._GLOBAL_DEFAULT_TIMEOUT
第一个参数必须传送。
返回一个response对象,返回信息保存在这里面。
print response.read()
response对象有一个read()方法,可以获取网页内容
'''
# ----------------------------------------------------------------------------------------
# 2、构造request
request = urllib2.Request("http://www.baidu.com/")
response = urllib2.urlopen(request)
print response.read()
'''
分析:
urlopen传入一个request请求,其实就是一个Request类的实例,构造时传入URL,data等内容。
通过构造一个request,服务器响应请求得到应答,逻辑更加清晰
'''
# ----------------------------------------------------------------------------------------
# 3、POST和GET数据传送
# POST
values = {}
values["username"] = "kevinelstri"
values["password"] = "******"
data = urllib.urlencode(values)
url = ""
request = urllib2.Request(url, data)
response = urllib2.urlopen(request)
print response.read()
# GET
values = {}
values["username"] = "kevinelstri"
values["password"] = "******"
data = urllib.urlencode(values)
url = ""
geturl = url+'?'+data
request = urllib2.Request(geturl)
response = urllib2.urlopen(request)
print response.read()
'''
分析:
动态网页的抓取以及登录,不能直接进行获取,需要需要进行登陆。
数据传送分为POST和GET
GET方式是直接以链接形式进行访问,链接包含了所有的参数,当然如果包含了密码的话就是一种不安全的选择,
不过可以直观的看到提交的内容。
POST方式不会在网址上显示所有的参数,不过如果想直接查看提交的内容就不太方便了。
'''
# ----------------------------------------------------------------------------------------
# 4、高级用法:设置Headers
url = 'http://www.server.com/login'
user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
values = {"username":"1098918523@qq.com", "password":"341204baiduhi"}
headers = {'User_Agent': user_agent}
data = urllib.urlencode(values)
request = urllib2.Request(url, data, headers)
response = urllib2.urlopen(request)
print response.read()
# ----------------------------------------------------------------------------------------
# 5、高级用法:proxy的设置
enable_proxy = True
proxy_handler = urllib2.ProxyHandler({"http": "http://some-proxy.com:8080"})
null_proxy_handler = urllib2.ProxyHandler({})
if enable_proxy:
opener = urllib2.build_opener(proxy_handler)
else:
opener = urllib2.build_opener(null_proxy_handler)
urllib2.install_opener(opener)
'''
分析:
使用代理服务器进行访问,来防止ip访问次数过多造成访问禁止
'''
# ----------------------------------------------------------------------------------------
# 6、高级用法:Timeout设置
response = urllib2.urlopen('http://www.baidu.com', timeout=10)
print response.read()
'''
分析:
设置Timeout,设置等待多久超时,为解决网站响应慢造成的影响
'''
# ----------------------------------------------------------------------------------------
# 7、高级用法:使用http的put和delete方法
url = "http://www.baidu.com"
request = urllib2.Request(url)
request.get_method = lambda: 'PUT' # or 'DELETE'
response = urllib2.urlopen(request)
print response.read()
'''
分析:
http协议的六种请求:
get,head,put,delete,post,options
put:和post相似,都是向服务器发送数据
一个重要区别就是:put通常指定了资源的存放位置,而post则没有,post的数据存放位置由服务器自己决定
delete:删除某个资源,很少使用
'''
# ----------------------------------------------------------------------------------------
# 8、高级用法:使用debuglog,调试日志
httpHandler = urllib2.HTTPHandler(debuglevel=1)
httpsHandler = urllib2.HTTPSHandler(debuglevel=1)
opener = urllib2.build_opener(httpHandler, httpsHandler)
urllib2.install_opener(opener)
response = urllib2.urlopen("http://www.baidu.com")
'''
分析:
将收发包的内容打印到屏幕上,方便调试,打印的是调试日志
'''