我们在使用python爬虫时,需要模拟发起网络请求,主要用到的库有requests库和python内置的urllib库,一般建议使用requests,它是对urllib的再次封装,它们使用的主要区别:requests可以直接构建常用的get和post请求并发起,urllib一般要先构建get或者post请求,然后再发起请求。get请求:使用get方式时,请求数据直接放在url中。post请求:使用
urllib2库的基本使用所谓网页抓取,就是把URL地址中指定的网络资源从网络流中读取出来,保存到本地。 在Python中有很多库可以用来抓取网页,我们先学习urllib2urllib2Python2.7 自带的模块(不需要下载,导入即可使用)urllib2 官方文档:https://docs.python.org/2/library/urllib2.htmlurllib2 源码:http
转载 2023-07-04 14:50:10
151阅读
python urllib2使用心得 1、http GET请求过程:获取返回结果,关闭连接,打印结果f = urllib2.urlopen(req, timeout=10) the_page = f.read() f.close() print the_page 2、http GET请求 + 包头paras = "Token=1234567890;Uuid=0987654321
转载 2023-07-05 21:02:29
75阅读
#!/usr/bin/python#coding: utf-8import base64import urllibimport urllib2import timeclass SendRequest: ''' This class use to
原创 2022-12-20 10:56:06
97阅读
介绍urllib库在不同版本的Python中的变动,并以Python3.X讲解urllib库的相关用法。urllib库对照速查表Python2.XPython3.Xurlliburllib.request, urllib.error, urllib.parseurllib2urllib.request, urllib.errorurllib2.urlopenurllib.request.urlop
转载 2023-09-05 19:13:42
93阅读
最近要用 Python 模拟表单上传文件,搜索了一下常见的解决方案。如果只是要模拟提交一个不包含文件字段的表单,实现起来是很简单的,但涉及到文件上传就有一点小复杂,需要自己对文件进行编码,或者使用第三方模块。不过,由于 PycURL 需要用到 curl,在 Windows 下安装可能会有点麻烦,除 PycURL 外,也有一些其它实现 POST 文件上传的方式,比如这儿的 2 楼有人贴出了一个将文件
 from: http://www.cnblogs.com/yuxc/archive/2011/08/01/2124073.html Python:urlliburllib2之间的区别   作为一个Python菜鸟,之前一直懵懂于urlliburllib2,以为2是1的升级版。今天看到老外写的一篇《Python: difference betwee
转载 2012-07-10 10:31:21
1269阅读
方式一import urllib2response = urllib2.urlopen('http://www.baidu.com')print response.getcode()cont = response.read()方式二import urllib2request = urllib2.Request(url)request.add_data('a','1')...
原创 2021-07-27 17:55:17
195阅读
urllib2默认只支持HTTP/HTTPS的GET和POST方法一、Get方式GET请求一般用于我们向服务器获取数据,比如说,我们用百度搜索,在百度搜索框中搜索“秦时明月”,拿到地址栏里有效url为:https://www.baidu.com/s?wd=秦时明月这两个url其实是一样的,wd后面出现的字符串是“秦时明月”的url编码,于是我们可以尝试用默认的Get方式来发送请求。#负责url编码
from urllib2 import urlopen import urllib2 enable_proxy = True proxy_handler = urllib2.ProxyHandler({"http" : 'http://192.168.0.101:3128'}) null_proxy_handler = urllib2.ProxyHandler({}) if enable_pro
转载 2023-06-21 15:30:42
99阅读
Python强大的功能使得在写爬虫的时候显得十分的简单,但是Python2Python3在这方面有了很多区别。本人刚入门爬虫,所以先写一点小的不同。以爬取韩寒的一篇博客为例子:在Python2.7中,我们往往这样写:import urllib2 request=urllib2.Request("http://blog.sina.com.cn/s/blog_4701280b0102egl0.htm
转载 2023-05-31 10:18:51
92阅读
转自:http://lizhenliang.blog.51cto.com/7876557/1872538打开URL。urllib2urllib的增强版,新增了一些功能,比如Request()用来修改Header信息。但是urllib2还去掉了一些好用的方法,比如urlencode()编码序列中的两个元素(元组或字典)为URL查询字符串。一般情况下这两个库结合着用,那我们也结合着了解下。类描述ur
转载 2024-06-10 01:19:24
187阅读
1.将新浪首页 的html抓取到本地,保存在D:\sina.html文件中,同时显示下载的进度http://blog.csdn.net/lmh12506/article/details/7805049def cbk(a, b, c):     '''回调函数     @a: 已
转载 精选 2014-07-07 07:27:43
960阅读
Python 3.X版本后的urlliburllib2  1----现在的Python已经出到了3.5.2 在Python 3以后的版本中,urllib2这个模块已经不单独存在(也就是说当你import urllib2时,系统提示你没这个模块),urllib2被合并到了urllib中,叫做urllib.request 和 urllib.error 。 urllib
转载 2023-07-01 10:53:33
14阅读
python3.4以后中,将urllib2、urlparse、robotparser并入了urllib模块,并且修改了urllib模块,其中包含了5个子模块:urllib.parse、urllib.request、urllib.response、urllib.error、urllib.robotparser本文主要为了区分python2中使用urllib2 + urllibpython3中使
转载 2024-01-08 17:03:34
118阅读
Python使用urlliburllib2捉取网页内容  简单介绍如何使用urlliburllib2模块捉取网页信息 1.扒一个网页下来怎样扒网页呢?其实就是根据URL来获取它的网页信息,虽然我们在浏览器中看到的是一幅幅优美的画面,但是其实是由浏览器解释才呈现出来的,实质它是一段HTML代码,加 JS、CSS,如果把网页比作一个人,那么HTML便是他的骨架,JS便
翻译 2018-01-16 14:33:51
3460阅读
最近又来学习python了,可惜没有怎么将其用于工作中,只能利用空余时间来玩玩。1、抓取简单网页# coding=utf-8import urllib2response = urllib2.urlopen('http://www.pythonclub.org/python-network-application/observer-spider')html = response.read()prin
原创 2022-10-14 13:07:20
214阅读
#-*-coding:utf-8-*- import urllib import urllib2 import cookielib ##urllib url="http://www.qq.com" header={"User-Agent":"Mozilla/5.0 (Windows NT 6.1;
原创 2022-06-29 12:25:45
147阅读
# 使用urllib2库实现HTTP请求 ## 简介 urllib2Python中一个用于HTTP请求的库,它提供了许多功能,包括发送请求、处理响应等。本文将介绍如何使用urllib2库进行HTTP请求。 ## 流程 下面是使用urllib2库实现HTTP请求的整个流程。 1. 导入urllib22. 创建请求对象 3. 发送请求 4. 处理响应 接下来,我们将逐步介绍每个步骤需要做
原创 2023-12-28 05:51:33
34阅读
    最近学校快要选课了,所以想用python写一个抢课的脚本        思路是不断地post 请求数据        一开始先post一次数据进行试验    可是发现中途遇到一个问题,输入验证码登陆到主页之后,这
原创 2016-06-03 11:28:27
923阅读
  • 1
  • 2
  • 3
  • 4
  • 5