首页 > 编程语言 > 详细

Python爬取前程无忧网址,并保存为txt文件

时间:2017-02-05 22:40:43      阅读:500      评论:0      收藏:0      [点我收藏+]
 1 import urllib.request
 2 import re
 3 
 4 
 5 def get_html(page):                 #获取网页的HTML
 6     url = http://search.51job.com/jobsearch/search_result.php?fromJs=1&jobarea=000000%2C00&district=000000&funtype=0000&industrytype=00&issuedate=9&providesalary=99&keyword=Python&keywordtype=2&curr_page=2&lang=c&stype=1&postchannel=0000&workyear=99&cotype=99&degreefrom=99&jobterm=99&companysize=99&lonlat=0%2C0&radius=-1&ord_field=0&list_type=0&fromType=14&dibiaoid=0&confirmdate=9.format(page)
 7     html = urllib.request.urlopen(url).read()
 8     html = html.decode(gbk)
 9     return html
10 
11 def get_you_want(html):         #获取需要的征文内容
12     reg = re.compile(rclass="t1 ">.*?<a target="_blank" title="(.*?)".*?<span class="t2"><a target="_blank" title="(.*?)".*?<span class="t3">(.*?)</span>.*?<span class="t4">(.*?)</span>,re.S)
13     you_want = re.findall(reg,html)
14     print(you_want)
15     return you_want
16 
17 for get_page in range(1,6):
18     htmls = get_html(get_page) #调用获取源码
19     for i in get_you_want(htmls):
20         print(i[0],i[1],i[2],i[3])
21         with open(前程无忧.txt,a) as f:
22             f.write(i[0]+\t+i[1]+\t+i[2]+\t+i[3]+\n\n)

 



我用的是Python 3 其实和Python 2 差不多 ,就是Python3没有了urllib2,需要导入import urllib.requests来代替import urllib2,其他的都差不多


PS:
  其实我是想保存为Excel来进行后续的分析的,但是发现比较麻烦就放弃了!(此处应该有表情的? ???)

Python爬取前程无忧网址,并保存为txt文件

原文:http://www.cnblogs.com/114811yayi/p/6368605.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!