1.urllib2库的使用示例

>>> import urllib2
>>> response=urllib2.urlopen('http://www.baidu.com')#获取网页信息
>>> print response.read()#打印出网页信息

首先我们调用的是urllib2库里面的urlopen方法,传入一个URL,这个网址是百度首页,协议是HTTP协议,当然你也可以把HTTP换做FTP,FILE,HTTPS 等等,只是代表了一种访问控制协议。

2.分析程序信息

(1)第一句程序是导入urllib2库

(2)第二句我们主要看一下urlopen这个函数

作用:打开一个网页信息

格式:

urlopen(url,data,timeout)

参数:三个参数,一个必传参数URL,两个参数(date,timeout)

  • 第一个参数url即为URL
  • 第二个参数data是访问URL时要传送的数据
  • 第三个timeout是设置超时时间

第二三个参数是可以不传送的,data默认为空None,timeout默为 socket._GLOBAL_DEFAULT_TIMEOUT

第一个参数URL是必须要传送的,在这个例子里面我们传送了百度的URL,执行urlopen方法之后,返回一个response对象,返回信息便保存在这里面。

(3)第三句是把urlopen获取到的网页信息,打印出来(response对象有一个read方法,可以返回获取到的网页内容。)

response.read()

response对象有一个read方法,可以返回获取到的网页内容

不加read打印出来的结果,直接打印出了该对象的描述,所以记得一定要加read方法

<addinfourl at 139728495260376 whose fp = <socket._fileobject object at 0x7f1513fb

3.构造一个request

import urllib2
request=urllib2.Request("http://www.baidu.com")
response=urllib2.urlopen(request)
print response.read()

推荐大家这样写,这个程序反应出爬虫的基本过程。



动态网页抓取信息

上面的程序演示了最基本的网页抓取,不过,现在大多数网站都是动态网页,需要你动态地传递参数给它,它做出对应的响应。所以,在访问时,我们需要传递数据给它。

数据传送分为POST和GET两种方式,最重要的区别是GET方式是直接以链接形式访问,链接中包含了所有的参数,当然如果包含了密码的话是一种不安全的选择,不过你可以直观地看到自己提交了什么内容。POST则不会在网址上显示所有的参数,不过如果你想直接查看提交了什么就不太方便了,大家可以酌情选择。

post方法:

1.首先构建一个url
2.传递动态信息给url
3.构建一个request
4.构建一个response
#代码——登陆知乎客户端
import urllib2
value={"username":"1590110xxxx","password":"xx12341234"}
date=urllib2.urlencode(value)
url="https://www.zhihu.com/"
request=urllib2.Request(url,date)
response=urllib2.urlopen(request)
print response.read()

get方法:

import urllib2
values={'username':'159xxxxxxxx','password':'xx12341234'}
date=urllib2.urlencode(values)
url='https://www.zhihu.com/'
geturl=url+'?'+date
request=urllib2.Request(url)
response=urllib2.urlopen(request)
print response.read()

本文章参考崔庆才博客。

http://python.jobbole.com/81336/