Apache版本的Hive。
Cloudera版本的Hive。
这里选择下载Apache稳定版本apache-hive-0.13.1-bin.tar.gz,并上传至bigdata-pro03.kfk.com节点。
/tmp目录已有,不需要创建。
启动成功!
1)查看用户信息
2)更新用户信息
3)删除用户信息
4)刷新信息
做完以上工作之后就可以保证集群的其他节点也可以直接登录到Hive环境中去。
再看节点1的MySQL端:
接下来再做以下配置:
将文件中红框的内容拷贝到hive-site.xml文件中去,并将value值改为true。
然后退出重启Hive,可以发现会显示出数据库名和表的列名信息。
可以发现,我们在Hive端创建的数据库和表已经同步到我们的MySQL端了,即MySQL与Hive的集成没有问题。
在[kfk@bigdata-pro03 lib]$路径下运行下列指令:
执行完以上指令之后使用ll命令查看一下拷贝的jar包是否有问题,没有问题的话再进行下一步。
像上图就是有问题的jar包,最好进到hbase的lib目录下用cp命令重新将有问题的包拷贝一遍。
结果有报错!
从日志可以看出错误原因是DNS服务贸易配置,无法进行正确的地址解析,解决原因参加博客:使用bind配置DNS服务(CentOS 6.5)
#查看hbase数据记录
报错解决之后删掉之前的业务表,重新创建,然后再查询:
我们再运行一个MapReduce程序查看表里有多少条数据:
1)启动hiveserver2
2)启动beeline
#连接hive2服务
#查看表
#查看前10条数据
以上就是博主为大家介绍的这一板块的主要内容,这都是博主自己的学习过程,希望能给大家带来一定的指导作用,有用的还望大家点个支持,如果对你没用也望包涵,有错误烦请指出。如有期待可关注博主以第一时间获取更新哦,谢谢!同时也欢迎转载,但必须在博文明显位置标注原文地址,解释权归博主所有!
原文:https://www.cnblogs.com/zimo-jing/p/10701590.html