首页 > 其他 > 详细

17.Azkaban实战

时间:2019-06-16 15:28:50      阅读:116      评论:0      收藏:0      [点我收藏+]

首先创建一个command.job文件

 

#command.job
type=command
command=echo it18zhang

 

 

 

然后打成zip压缩包

技术分享图片

 

技术分享图片

 

技术分享图片

 

 技术分享图片

技术分享图片

上传刚刚打包的zip包

技术分享图片

技术分享图片

 

 技术分享图片

 

 技术分享图片

 

上传完后可以执行他

技术分享图片

可以定时执行

技术分享图片

技术分享图片

 

 

现在我们立马执行

技术分享图片

技术分享图片

 

 技术分享图片

 

 技术分享图片

 

 

现在我们要执行一个脚本

新建一个commad1.job文件

#command.job
type=command
command=bash hello.sh

 

再编写一个hello,sh脚本

#!/bin/bash
echo hello it18zhang~~~~ 

 

 

把两个文件都选上一起打包

技术分享图片

技术分享图片

 

 技术分享图片

技术分享图片

 

 技术分享图片

 

 上传刚刚打的zip包

技术分享图片

技术分享图片

 

 技术分享图片

技术分享图片

 

 执行

技术分享图片

技术分享图片

 

 技术分享图片

技术分享图片

 

 技术分享图片

 

 

 

创建有依赖关系的多个job描述

 新建一个bar.job

# bar.job
type=command
dependencies=foo
command=echo bar

 

新建一个foo.job

# foo.job
type=command
command=echo foo

 

把这两个文件一起打成zip包

技术分享图片

技术分享图片

 

 

 技术分享图片

 

 技术分享图片

 

 技术分享图片

技术分享图片

 

 技术分享图片

 

 技术分享图片

 

 技术分享图片

 

技术分享图片

技术分享图片

 

 

 技术分享图片

技术分享图片

 

技术分享图片

 

HDFS操作任务

 新建文件fs.job

# fs.job
type=command
command=/opt/modules/hadoop-2.6.0/bin/hadoop fs -mkdir /azaz

 

 打包成zip包

技术分享图片

 

 技术分享图片

 

 技术分享图片

 

 技术分享图片

技术分享图片

 

 

 技术分享图片

 

 技术分享图片

技术分享图片

 

技术分享图片

 

 技术分享图片

 

 技术分享图片

 

 技术分享图片

技术分享图片

 

 

   MAPREDUCE任务

先创建一个输入路径

技术分享图片

 

 技术分享图片

创建一个数据文件b.txt

 技术分享图片

输入一些单词

技术分享图片

 

 把b.txt文件上传到hdfs上

技术分享图片

技术分享图片

 

 创建mrwc.job文件

# mrwc.job
type=command
command=/opt/modules/hadoop-2.6.0/bin/hadoop  jar hadoop-mapreduce-examples-2.6.0.jar wordcount /wordcount/input /wordcount/azout

 

 

把这两个文件一起打包

技术分享图片

 

在azkaban创建一个project

 技术分享图片

技术分享图片

 

技术分享图片

 技术分享图片

 

技术分享图片

 

 技术分享图片

 

 技术分享图片

 技术分享图片

 技术分享图片

 

技术分享图片

 

 

可以看到执行成功了

技术分享图片

 

 技术分享图片

 

HIVE脚本任务

先创建目录

 

hadoop fs -mkdir -p /aztest/hiveinput

 

 

 

 

新建一个c.txt数据文件

技术分享图片

技术分享图片

 

 把c.txt文件上传到HDFS上

 技术分享图片

技术分享图片

 

 

 

 新建hivef.job

# hivef.job
type=command
command=/opt/modules/hive/bin/hive -f test.sql

 

 

新建test.sql

use default;
drop table aztest;
create table aztest(id int,name string) row format delimited fields terminated by , ;
load data inpath /aztest/hiveinput into table aztest;
create table azres as select * from aztest;
insert overwrite directory /aztest/hiveoutput select count(1) from aztest; 

 

 

打包成hivef.zip

技术分享图片

 

技术分享图片

 

 

 技术分享图片

 

 技术分享图片

 

 技术分享图片

 

技术分享图片

 

 技术分享图片

 

 

 技术分享图片

技术分享图片

 

 技术分享图片

 

 

可以看到失败了,查看原因

技术分享图片

 

 把本地hive的Lib目录下的mysql连接包的版本更换一下

技术分享图片

 

 换成这个5.1.28版本

技术分享图片

 

 再运行一次,同样失败了,但是hive和hdfs上出来了相应的结果,具有原因我也不懂

技术分享图片

技术分享图片

 

17.Azkaban实战

原文:https://www.cnblogs.com/braveym/p/10891394.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!