首页 > 其他 > 详细

爬取百度贴吧前1000页内容(requests库面向对象思想实现)

时间:2019-06-25 20:33:58      阅读:76      评论:0      收藏:0      [点我收藏+]

此程序以李毅吧为例子,以面向对象的设计思想实现爬取保存网页数据,暂时并未用到并发处理,以后有机会的话会加以改善

  • 首先去百度贴吧分析贴吧地址栏中url后的参数,找到分页对应的参数pn,贴吧名字对应的参数kw
  • 首先创建类,写好__init__方法,run方法,__init__方法里先可以直接写pass
  • run方法里大概整理一下整体的思路
    • 构造 url 列表,因为要爬取1000页,每页需对应一个url
    • 遍历发送请求,获取响应
    • 保存  
  • 将可封装的步骤封装到单独的方法,所以这里又增加了三个方法
    • get_url_list方法可以返回需要访问的所有url的一个列表
    • parse_url方法用来发送请求获取响应,最终返回html页面内容
    • save_html方法用来保存html字符串
    • run方法为核心实现,将三个方法和用到的参数结合起来
  • 每当有用到的参数,可以在__init__方法里添加对应的实例属性
  • 最后,实例化类,测试,会不断的向当前目录保存html文件
 1 import requests
 2 
 3 
 4 class TiebaSpider(object):
 5     def __init__(self, tieba_name):  # tieba_name为要爬取贴吧的名称
 6         self.tieba_name = tieba_name
 7         self.url_temp = https://tieba.baidu.com/f?kw= + tieba_name + &ie=utf-8&pn={}
 8         self.headers = {
 9             User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36,
10         }
11 
12     def get_url_list(self):  # 构造url列表
13         # url_list = []
14         # for i in range(1000):
15         #     url_list.append(self.url_temp.format(i * 50))
16         # return url_list
17         return [self.url_temp.format(i*50) for i in range(1000)]  # 列表推导式替换上面代码
18 
19     def parse_url(self, url):  # 发送请求,获取响应
20         print(url)
21         response = requests.get(url, headers=self.headers)
22         return response.content.decode()
23 
24     def save_html(self, html_str, page_num):  # 保存html字符串
25         file_path = {}-第{}页.html.format(self.tieba_name, page_num)
26         with open(file_path, w, encoding=utf-8) as f:  # 样例: 李毅-第一页.html
27             f.write(html_str)
28 
29     def run(self):  # 实现主要逻辑
30         # 1.构造url列表
31         url_list = self.get_url_list()
32         # 2.遍历,发送请求,获取响应
33         for url in url_list:
34             html_str = self.parse_url(url)
35             # 3.保存
36             page_num = url_list.index(url) + 1  # 页码数
37             self.save_html(html_str, page_num)
38 
39 
40 if __name__ == __main__:
41     tieba_spider = TiebaSpider(李毅)
42     tieba_spider.run()

 

爬取百度贴吧前1000页内容(requests库面向对象思想实现)

原文:https://www.cnblogs.com/springionic/p/11085296.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!