首页 > 其他 > 详细

爬虫-抓取页面内容

时间:2016-04-11 11:44:17      阅读:212      评论:0      收藏:0      [点我收藏+]

 

# -*- coding: UTF-8 -*-
from HTMLParser import HTMLParser
import sys,urllib2,string,re,json

reload(sys)
sys.setdefaultencoding(utf-8)

class hp(HTMLParser):

    def __init__(self):
        self.readingdata_a = False
        self.title = []
        self.usite = []
        HTMLParser.__init__(self)
    
    def handle_starttag(self,tag,attrs):
        #print tag
        if tag == a:for h,v in attrs:
                if v == entrylistItemTitle:
                    self.readingdata_a = True
                    self.usite.append(attrs[2][1])

    def handle_data(self,data):
        if self.readingdata_a:
            self.title.append(data)

    def handle_endtag(self,tag):
        if tag == a:
            self.readingdata_a = False

    def getdata(self):
        #return zip(self.title,self.usite) 通过zip函数将其一对一合并为tuple

        i=0
        listr = []
        while i<len(self.title):
            listr.append(self.title[i] + : +self.usite[i])
            i=i+1
        return listr


url=http://www.cnblogs.com/dreamer-fish/archive/2016/03.html
request = urllib2.Request(url)
response = urllib2.urlopen(request).read()

yk=hp()
yk.feed(response)
dd = yk.getdata()


for i in dd:
    print i

yk.close

 结果:

技术分享

爬虫-抓取页面内容

原文:http://www.cnblogs.com/dreamer-fish/p/5377438.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!