首页 > 其他 > 详细

Hadoop综合大作业

时间:2018-05-25 19:57:31      阅读:260      评论:0      收藏:0      [点我收藏+]

Hadoop综合大作业 要求:

1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。

 

我下载的是一篇英文长篇小说《教父》,字数为技术分享图片个,

技术分享图片

将文章(godfather.txt)放在了wc文件中:

技术分享图片

 

启动hadoop:

1
2
start-all.sh
jps

  技术分享图片

 

文件上传至hdfs

1
2
hdfs dfs -put ./godfather.txt /bigdatacase/dataset
hdfs dfs -ls /bigdatacase/dataset

  技术分享图片

 

启动hive

1
hive

技术分享图片

 

 创建原始文档表

1
create table novel(long string);

  技术分享图片

 

导入文件内容到表novel

1
load data inpath ‘/bigdatacase/dataset/godfather.txt‘ overwrite into table novel;

  技术分享图片

 

进行词频统计并放入表novelcount表中

1
create table novelcount as select word,count(1) from (select(long,‘ ‘)) as word from novel) word group by word;

技术分享图片

 

查看统计结果(前20个)

1
select * from novelcount limit 20

技术分享图片

 

 

 

2.用Hive对爬虫大作业产生的csv文件进行数据分析,写一篇博客描述你的分析过程和分析结果。

爬虫大作业爬取的结果是如图所示

技术分享图片

 

将统计好的文件number.txt和number.csv放置wc文件夹中

技术分享图片

 

启动hdfs

1
2
start-all.sh
jps

技术分享图片

 

技术分享图片

 

将文件上传至hdfs,并显示前十条

技术分享图片

 

启动mysql

技术分享图片

 

启动hive

技术分享图片

 

创建数据库

1
create database numbercount;

  技术分享图片

 

创建表

技术分享图片

 

导入数据

技术分享图片

 

查看数据

技术分享图片

技术分享图片

Hadoop综合大作业

原文:https://www.cnblogs.com/BOXczx/p/9090212.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!