首页 > 其他 > 详细

Hadoop综合大作业

时间:2018-05-24 19:20:23      阅读:224      评论:0      收藏:0      [点我收藏+]

1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。

在网上下载英文小说,下载到本地home/hadoop/wc

技术分享图片

首先要启动dfs:

技术分享图片

 在user/hadoop/上创建文件夹EnglishWord:

技术分享图片

上传下载文档到user/hadoop/EnglishWord文件中

技术分享图片

在hive数据库创建表 world: 

技术分享图片

导入文本world.txt并查看

技术分享图片

用HQL进行词频统计并保持到表 word_count:

技术分享图片

技术分享图片

 

 

 

 

 

 

 

 

2.用Hive对爬虫大作业产生的csv文件进行数据分析,写一篇博客描述你的分析过程和分析结果。

 将爬虫作业产生的文件转为txt格式的文件,发生至网盘,然后再虚拟机下载操作。

下载下来的txt文件显示前十条:

技术分享图片

把文件上传至hdfs,并查看:

技术分享图片

创建数据库ciyuncount和表ciyun:

技术分享图片

导入数据:

技术分享图片

查看数据:

技术分享图片

 

 

 

 

 

 


 

 

Hadoop综合大作业

原文:https://www.cnblogs.com/Fanchuguang/p/9084361.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!