学校的server能够上外网了,所以打算写一个自己主动爬取笑话并发到bbs的东西,从网上搜了一个笑话站点,感觉大部分还不太冷。html结构例如以下:
能够看到,笑话的链接列表都在<div class="list_title">里面,用正則表達式能够把近期的几个笑话地址找出来,再进到一个笑话页面看下:
每一个笑话页面里面是有多个小笑话组成的。所有在<span id="text110">标签下,每一个小笑话又单独一个<p>包裹,这样很easy就能够把每一个单独笑话放到一个list中。因为我爬笑话的目的是每天白天一个小时发一个笑话。所以爬取20个是足够的了,每一个页面平均有5个小笑话,爬4个页面就OK啦。
这里有几个细节。这个笑话网有的链接是有中文的,比方:
<a href="/jokehtml/冷笑话/2014051200030765.htm" target="_blank">读书破万卷,搞笑如有神</a>
import urllib.request import urllib.parse import re rule_joke=re.compile(‘<span id=\"text110\">([\w\W]*?)</span>‘) rule_url=re.compile(‘<a href=\"(.*?)\"target=\"_blank\" >‘) mainUrl=‘http://www.jokeji.cn‘ url=‘http://www.jokeji.cn/list.htm‘ req=urllib.request.urlopen(url) html=req.read().decode(‘gbk‘) urls=rule_url.findall(html) f=open(‘joke.txt‘,‘w‘) for i in range(4): url2=urllib.parse.quote(urls[i]) joke_url=mainUrl+url2 req2=urllib.request.urlopen(joke_url) html2=req2.read().decode(‘gbk‘) joke=rule_joke.findall(html2) jokes=joke[0].split(‘<P>‘) for i in jokes: i=i.replace(‘</P>‘,‘‘) i=i.replace(‘<BR>‘,‘‘) i=i[2:] f.write(i) f.close()
这样,每行是一个单独的笑话。方便其它程序使用。
转载请注明:转自http://blog.csdn.net/littlethunder/article/details/25693641
原文:http://www.cnblogs.com/yfceshi/p/7272702.html