首页 > 编程语言 > 详细

10分钟教你利用Python网络爬虫获取穷游攻略

时间:2020-09-05 13:32:38      阅读:69      评论:0      收藏:0      [点我收藏+]

完整源码在底部

【一、项目背景】

穷游网提供原创实用的出境游旅行指南、攻略,旅行社区和问答交流平台,以及智能的旅行规划解决方案,同时提供签证、保险、机票、酒店预订、租车等在线增值服务。穷游“鼓励和帮助中国旅行者以自己的视角和方式体验世界”。

今天教大家获取穷游网的城市信息,使用Python将数据写入csv文档。

技术分享图片

【二、项目目标】

实现将获取对应的城市、图片链接、热点、批量下载 保存csv文档。

【三、涉及的库和网站】

1、网址如下:

https://place.qyer.com/south-korea/citylist-0-0-{}

 

2、涉及的库:requests、l****xml、fake_useragent、time、csv

【四、项目分析】

首先需要解决如何对下一页的网址进行请求的问题。可以点击下一页的按钮,观察到网站的变化分别如下所示:

 

https://place.qyer.com/south-korea/citylist-0-0-1
 
https://place.qyer.com/south-korea/citylist-0-0-2
 
https://place.qyer.com/south-korea/citylist-0-0-3

 

 

观察到只有citylist-0-0-{}/变化,变化的部分用{}代替,再用for循环遍历这网址,实现多个网址请求。

【五、项目实施】

1、我们定义一个class类继承object,然后定义init方法继承self,再定义一个主函数main继承self。准备url地址。

import requests,os
from lxml import etree
import random
import time
from fake_useragent import UserAgent
 
 
class Travel(object):
    def __init__(self):
        self.url = "https://place.qyer.com/south-korea/citylist-0-0-{}/"
    def main(self):
        pass
if __name__ == __main__:
    spider= Travel()
    spider.main()

 

 

2、随机产生UserAgent。

 

      self.film_list = []
      ua = UserAgent(verify_ssl=False)
        for i in range(1, 50):
            self.film_list.append(ua.chrome)
            self.Hostreferer = {
            User-Agent: random.choice(self.film_list)
        }

 

 

3、多页请求。

 

        startPage = int(input("起始页:"))
        endPage = int(input("终止页:"))
        for page in range(startPage, endPage + 1):
            url = self.url.format(page)

 

 

4、定义get_page方法,进行数据请求。

 

  ‘‘‘数据请求‘‘‘
    def get_page(self, url):
        html = requests.get(url=url, headers=self.Hostreferer).content.decode("utf-8")
        self.page_page(html)
        # print(html)//网页
        # print(self.headers)//构造头

 

5、定义page_page,xpath解析数据, for循环遍历数组。

在谷歌浏览器上,右键选择开发者工具或者按F12。右键检查,xpath找到对应信息的字段。如下图所示。

技术分享图片 

 

   parse_html = etree.HTML(html)
    image_src_list = parse_html.xpath(//ul[@class="plcCitylist"]/li) 
    for i in image_src_list:
            b = i.xpath(.//h3//a/text())[0].strip()
            c = i.xpath(.//p[@class="beento"]//text())[0].strip()
            d = i.xpath(.//p[@class="pics"]//img//@src)[0].strip()

 

 

6、定义csv文件保存数据,写入文档。

 

       # 创建csv文件进行写入
        csv_file = open(scrape.csv, a, encoding=gbk)
        csv_writer = csv.writer(csv_file)
        csv_writer.writerow([b, c, d])
        csv_file.close()

 

7、在main方法调用。

 

   def main(self):
        for i1 in range(1, 25):
            url = self.url.format(i1)
            # print(url)
            html = self.get_page(url)
 
            time.sleep(2)
            print("第%d页" % i1)

 

8、time模块,设置时间延迟。

 

           time.sleep(2)

 

 

【六、效果展示】

1、点击运行,输入起始页,终止页。

技术分享图片

2、将下载成功信息显示在控制台。

技术分享图片

3、保存csv文档。

技术分享图片

【七、总结】

1、不建议抓取太多数据,容易对服务器造成负载,浅尝辄止即可。

2、希望通过这个项目,能够帮助大家对csv文档处理有进一步的了解。

3、本文基于Python网络爬虫,利用爬虫库,实现穷游网的获取。实现的时候,总会有各种各样的问题,切勿眼高手低,勤动手,才可以理解的更加深刻。

4、可以根据自己的需要选择自己的喜欢的城市获取自己想要的有效信息 。

5、需要本文源码的小伙伴,后台回复“穷游”四个字,即可获取。

 

关注公众号:Python爬虫数据分析挖掘,免费获取更多开源项目源码

技术分享图片

10分钟教你利用Python网络爬虫获取穷游攻略

原文:https://www.cnblogs.com/chenlove/p/13617277.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!