首页 > Web开发 > 详细

urllib和urllib2的区别及用

时间:2017-11-05 23:22:42      阅读:487      评论:0      收藏:0      [点我收藏+]

首先来看一下他们的区别

urllib和urllib2

  • urllib2可以接受一个Request类的实例来设置URL请求的headers,urllib仅可以接受URL。这意味着,你不可以通过urllib模块伪装你的User Agent字符串等(伪装浏览器)。
  • urllib提供urlencode方法用来GET查询字符串的产生,而urllib2没有。这是为何urllib常和urllib2一起使用的原因。
  • urllib2模块比较优势的地方是urlliburllib2.urlopen可以接受Request对象作为参数,从而可以控制HTTP Request的header部。
  • 但是urllib.urlretrieve函数以及urllib.quote等一系列quote和unquote功能没有被加入urllib2中,因此有时也需要urllib的辅助。

httplib

httplib实现了HTTP和HTTPS的客户端协议,一般不直接使用,在python更高层的封装模块中(urllib,urllib2)使用了它的http实现。

 

urllib简单用法

import urllib  
google = urllib.urlopen(http://www.google.com)    
print http header:/n, google.info()    
print http status:, google.getcode()    
print url:, google.geturl()    
for line in google: # 就像在操作本地文件    
    print line,    
google.close()   

urllib.urlopen(url[, data[, proxies]]) :   请求数据

    创建一个表示远程url的类文件对象,然后像本地文件一样操作这个类文件对象来获取远程数据。参数url表示远程数据的路径,一般是网址;参数data表示以post方式提交到url的数据(玩过web的人应该知道提交数据的两种方式:post与get。如果你不清楚,也不必太在意,一般情况下很少用到这个参数);参数proxies用于设置代理。urlopen返回一个类文件对象,他提供了如下方法:

  •     read(),readline(),readlines(), fileno(), close():这些方法的使用方式与文件对象完全一样;
  •     info():返回一个httplib.HTTPMessage对象,表示远程服务器返回的头信息;
  •     getcode():返回Http状态码。如果是http请求,200表示请求成功完成;404表示网址未找到;
  •     geturl():返回请求的url;

 

 

def cbk(a, b, c):    
    ‘‘‘‘‘‘‘回调函数  
    @a: 已经下载的数据块  
    @b: 数据块的大小  
    @c: 远程文件的大小  
    ‘‘‘    
    per = 100.0 * a * b / c    
    if per > 100:    
        per = 100    
    print ‘%.2f%%‘ % per    
    
url = ‘http://www.sina.com.cn‘    
local = ‘d://sina.html‘    
urllib.urlretrieve(url, local, cbk)    

 

urllib.urlretrieve(url[, filename[, reporthook[, data]]]):  下载文件

    urlretrieve方法直接将远程数据下载到本地。参数filename指定了保存到本地的路径(如果未指定该参数,urllib会生成一个临时文件来保存数据);参数reporthook是一个回调函数,当连接上服务器、以及相应的数据块传输完毕的时候会触发该回调。我们可以利用这个回调函 数来显示当前的下载进度,下面的例子会展示。参数data指post到服务器的数据。该方法返回一个包含两个元素的元组(filename, headers),filename表示保存到本地的路径,header表示服务器的响应头。下面通过例子来演示一下这个方法的使用,这个例子将新浪首页的html抓取到本地,保存在D:/sina.html文件中,同时显示下载的进度。

 

 

  1. data = ‘name = ~a+3‘    
  2.     
  3. data1 = urllib.quote(data)    
  4. print data1 # result: name%20%3D%20%7Ea%2B3    
  5. print urllib.unquote(data1) # result: name = ~a+3    
  6.     
  7. data2 = urllib.quote_plus(data)    
  8. print data2 # result: name+%3D+%7Ea%2B3    
  9. print urllib.unquote_plus(data2)    # result: name = ~a+3    
  10.     
  11. data3 = urllib.urlencode({ ‘name‘‘dark-bull‘‘age‘200 })    
  12. print data3 # result: age=200&name=dark-bull    
  13.     
  14. data4 = urllib.pathname2url(r‘d:/a/b/c/23.php‘)    
  15. print data4 # result: ///D|/a/b/c/23.php    
  16. print urllib.url2pathname(data4)    # result: D:/a/b/c/23.php   

 

       上面介绍的两个方法是urllib中最常用的方法,这些方法在获取远程数据的时候,内部会使用URLopener或者 FancyURLOpener类。作为urllib的使用者,我们很少会用到这两个类,这里我不想多讲。如果对urllib的实现感兴趣, 或者希望urllib支持更多的协议,可以研究这两个类。在Python手册中,urllib的作者还列出了这个模块的缺陷和不足,感兴趣的同学可以打开 Python手册了解一下。

       urllib中还提供了一些辅助方法,用于对url进行编码、解码。url中是不能出现一些特殊的符号的,有些符号有特殊的用途。我们知道以get方式提交数据的时候,会在url中添加key=value这样的字符串,所以在value中是不允许有‘=‘,因此要对其进行编码;与此同时服务器接收到这些参数的时候,要进行解码,还原成原始的数据。这个时候,这些辅助方法会很有用:

  • urllib.quote(string[, safe]):对字符串进行编码。参数safe指定了不需要编码的字符;
  • urllib.unquote(string) :对字符串进行解码;
  • urllib.quote_plus(string[,safe]) :与urllib.quote类似,但这个方法用‘+‘来替换‘ ‘,而quote用‘%20‘来代替‘ ‘
  • urllib.unquote_plus(string) :对字符串进行解码;
  • urllib.urlencode(query[, doseq]):将dict或者包含两个元素的元组列表转换成url参数。例如 字典{‘name‘: ‘dark-bull‘, ‘age‘: 200}将被转换为"name=dark-bull&age=200"
  • urllib.pathname2url(path):将本地路径转换成url路径;
  • urllib.url2pathname(path):将url路径转换成本地路径;

 

 

urllib2简单用法

 

  1. #!/usr/bin/env python  
  2.     import urllib2  
  3.     req = urllib2.Request("http://www.douban.com")  
  4.     response = urllib2.urlopen(req)  
  5.     html = response.read()  
  6.     print html  

 

1、urllib2.Request()的功能是构造一个请求信息,返回的req就是一个构造好的请求

2、urllib2.urlopen()的功能是发送刚刚构造好的请求req,并返回一个文件类的对象response,包括了所有的返回信息。

3、通过response.read()可以读取到response里面的html,通过response.info()可以读到一些额外的信息

有时你会碰到,程序也对,但是服务器拒绝你的访问。这是为什么呢?问题出在请求中的头信息(header)。 有的服务端有洁癖,不喜欢程序来触摸它。这个时候你需要将你的程序伪装成浏览器来发出请求。请求的方式就包含在header中。
常见的情形:

  1. import urllib  
  2. import urllib2  
  3. url = ‘http://www.someserver.com/cgi-bin/register.cgi‘  
  4. user_agent = ‘Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)‘# 将user_agent写入头信息  
  5. values = {‘name‘ : ‘who‘,‘password‘:‘123456‘}  
  6. headers = { ‘User-Agent‘ : user_agent }  
  7. data = urllib.urlencode(values)  
  8. req = urllib2.Request(url, data, headers)  
  9. response = urllib2.urlopen(req)  
  10. the_page = response.read()  

 

urllib2和urllib配合使用:

GET方法

例如百度:

百度是通过http://www.baidu.com/s?wd=XXX 来进行查询的,这样我们需要将{‘wd’:’xxx’}这个字典进行urlencode

 

  1. import urllib   
  2. import urllib2    
  3. url = ‘http://www.baidu.com/s‘   
  4. values = {‘wd‘:‘D_in‘}     
  5. data = urllib.urlencode(values)  
  6. print data   
  7. url2 = url+‘?‘+data  
  8. response = urllib2.urlopen(url2)    
  9. the_page = response.read()   
  10. print the_page  

 

POST方法

 

  1. import urllib  
  2. import urllib2  
  3. url = ‘http://www.someserver.com/cgi-bin/register.cgi‘  
  4. user_agent = ‘Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)‘ //将user_agent写入头信息  
  5. values = {‘name‘ : ‘who‘,‘password‘:‘123456‘}      //post数据  
  6. headers = { ‘User-Agent‘ : user_agent }  
  7. data = urllib.urlencode(values)                   //对post数据进行url编码  
  8. req = urllib2.Request(url, data, headers)  
  9. response = urllib2.urlopen(req)  
  10. the_page = response.read()  

 

urllib2带cookie的使用

 

  1. #coding:utf-8  
  2. import urllib2,urllib  
  3. import cookielib  
  4.    
  5. url = r‘http://www.renren.com/ajaxLogin‘  
  6.    
  7. #创建一个cj的cookie的容器  
  8. cj = cookielib.CookieJar()  
  9. opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cj))  
  10. #将要POST出去的数据进行编码  
  11. data = urllib.urlencode({"email":email,"password":pass})  
  12. r = opener.open(url,data)  
  13. print cj  

 

httplib

httplib是一个相对底层的http请求模块,其上有专门的包装模块,如urllib内建模块,goto等第三方模块,但是封装的越高就越不灵活,比如urllib模块里请求错误时就不会返回结果页的内容,只有头信息,对于某些需要检测错误请求返回值的场景就不适用,所以就得用这个模块了。

1、class httplib.HTTPConnection

说明:该类用于创建一个http类型的请求链接
原型:
HTTPConnection(host[, port[, strict[, timeout]]])
host: 请求的服务器host,不能带http://开头
port: 服务器web服务端口
strict: 是否严格检查请求的状态行,就是http1.0/1.1 协议版本的那一行,即请求的第一行,默认为False,为True时检查错误会抛异常
timeout: 单次请求的超时时间,没有时默认使用httplib模块内的全局的超时时间

  1. <span style="font-family:Microsoft YaHei;">    实例:    
  2.     conn1 = HTTPConnection(‘www.baidu.com:80‘)    
  3.     conn2 = HTTPconnection(‘www.baidu.com‘,80)    
  4.     conn3 = HTTPConnection(‘www.baidu.com‘,80,True,10)    
  5.     错误实例:    
  6.     conn3 = HTTPConnection(‘www.baidu.com:80‘,True,10)  </span>  

 

返回:HTTPConnection类会实例并返回一个HTTPConnection对象

 

2、class httplib.HTTPSConnection
说明:该类用于创建一个https类型的请求链接

原型:
HTTPSConnection(host[, port[, key_file[, cert_file[, strict[, timeout]]]]])
key_file:一个包含PEM格式的私钥文件
cert_file:一个包含PEM格式的认证文件
other:其它同http参数

实例:

 

<span style="font-family:Microsoft YaHei;">    conn3 = HTTPSConnection(‘accounts.google.com‘,443,key_file,cert_file,True,10)  </span> 

返回:同样返回一个HTTPSConnection对象
注意:要创建https链接,必须要保证底层的socket模块是支持ssl的编译模式,即编译时ssl选项的开关是开着的

 

3、HTTPConnection对象request方法:
说明:发送一个请求

原型:
conn.request(method, url[, body[, headers]])
method: 请求的方式,如‘GET‘,‘POST‘,‘HEAD‘,‘PUT‘,‘DELETE‘等
url: 请求的网页路径。如:‘/index.html‘
body: 请求是否带数据,该参数是一个字典
headers: 请求是否带头信息,该参数是一个字典,不过键的名字是指定的http头关键字
实例:

 

  1. <span style="font-family:Microsoft YaHei;">    conn.request(‘GET‘‘/‘‘‘, {‘user-agent‘:‘test‘})  </span>  

 

返回:无返回,其实就是相对于向服务其发送数据,但是没有最后回车


4、HTTPConnection对象getresponse方法
说明:获取一个http响应对象,相当于执行最后的2个回车

原型/实例:

 

  1. <span style="font-family:Microsoft YaHei;">res = conn.getresponse()  </span>  

返回:HTTPResponse对象


5、HTTPConnection对象close()方法
说明:关闭指定的httpconnect链接

  1. <span style="font-family:Microsoft YaHei;">conn.close()  </span>  

6、HTTPResponse对象read方法
说明:获得http响应的内容部分,即网页源码
原型:
body = res.read([amt])
amt: 读取指定长度的字符,默认为空,即读取所有内容
实例:

  1. <span style="font-family:Microsoft YaHei;">    body = res.read()    
  2.     pbody = res.read(10)  </span>  

 

返回:网页内容字符串


7、HTTPResponse对象的其它方法或属性
方法:
getheaders()
获得所有的响应头内容,是一个元组列表[(name,value),(name2,value2)]
getheader(name[,default])
获得指定的头内容
fileno()
socket的fileno

属性:
msg
所有的头信息,和getheaders方法一样,只不过这个是原始未处理的字符串
status
当次请求的状态
version
当次请求的http协议版本,10是http1.0, 11是http/1.1
reason
当次请求的结果的表述内容,200是ok,404是Not Found

总体实例:

  1. <span style="font-family:Microsoft YaHei;">#!/usr/bin/env python      
  2. # -*- coding: utf-8 -*-      
  3. import httplib    
  4. import urllib    
  5.     
  6. def sendhttp():    
  7.     data = urllib.urlencode({‘@number‘12524‘@type‘‘issue‘‘@action‘‘show‘})       
  8.     headers = {"Content-type""application/x-www-form-urlencoded",    
  9.                "Accept""text/plain"}    
  10.     conn = httplib.HTTPConnection(‘bugs.python.org‘)    
  11.     conn.request(‘POST‘‘/‘, data, headers)    
  12.     httpres = conn.getresponse()    
  13.     print httpres.status    
  14.     print httpres.reason    
  15.     print httpres.read()               
  16.                   
  17. if __name__ == ‘__main__‘:      
  18.     sendhttp()   </span>  

 


  

 

 

 

  

 

 

 

 

urllib和urllib2的区别及用

原文:http://www.cnblogs.com/domestique/p/7789055.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!