首页 > 其他 > 详细

hadoop综合大作业

时间:2018-05-25 20:07:51      阅读:188      评论:0      收藏:0      [点我收藏+]

1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。

先启动Hadoop。

技术分享图片

jps查看各个服务已启动

 技术分享图片

把本地文件上传到hdfs文件系统

技术分享图片

建个表text

技术分享图片

把hdfs文件系统中input文件夹里的文本文件load进去,写hiveQL命令统计

技术分享图片

技术分享图片

 使用select命令查看结果

 技术分享图片

2.用Hive对爬虫大作业产生的csv文件进行数据分析,写一篇博客描述你的分析过程和分析结果。

我选择用之前校园网爬取的数据导出成csv格式

 

然后将这个csv复制黏贴到当地的local/bigdatacase/dataset下,然后新建一个pre_deal.sh然后再让它俩生成一个txt

技术分享图片

接着就是就是将它上传到hdfs 的hadoop/biddata/dataset中。然后在创建一个database,外键表将这个txt的数据填到表里面。

因为时间处理得不好,类型不是date,所以标示的是null。

技术分享图片

没有时间不能做出其他更好的数据分析,于是我分析了多少条数据。

结果是760条。

技术分享图片

hadoop综合大作业

原文:https://www.cnblogs.com/whr7116365/p/9084804.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!