这周末就分享个小爬虫吧。利用Python爬取并简单地可视化分析当当网的图书数据。
让我们愉快地开始吧~
requests模块;
bs4模块;
wordcloud模块;
jieba模块;
pillow模块;
pyecharts模块;
以及一些Python自带的模块。
安装Python并添加到环境变量,pip安装需要的相关模块即可。
任务:
根据给定的关键字,爬取与该关键字相关的所有图书数据。
实现:
以关键字为python为例,我们要爬取的图书数据的网页页面是这样子的:
其中,网页的链接格式为:
http://search.dangdang.com/?key={keyword}&act=input&page_index={page_index}‘
因此请求所有与关键词相关的链接:
然后利用BeautifulSoup分别解析返回的网页数据,提取我们自己需要的数据即可:
运行效果:
在cmd窗口运行"ddSpider.py"文件即可。
效果如下:
本部分内容所有源代码可以在主页简介获取:
相关文件里的ddSpider.py文件中。
好的,现在就简单地可视化分析一波我们爬取到的61页python相关的图书数据吧~
让我们先看看图书的价格分布吧:
有没有人想知道最贵的一本python相关的书的单价是多少呀?答案是:28390RMB
书名是:
Python in Computers Programming
再来看看图书的评分分布呗:
看来大多数python相关的图书都没人买过~
再来评论数量?
那么评论数量TOP6的图书有哪些呢?
老规矩,画两个词云作结吧,把所有python相关的图书的简介做成词云如何?
原文:https://www.cnblogs.com/daimubai/p/14608240.html