Azkaban-实战(二)多job工作流案例


Azkaban-实战(二)多job工作流案例

1)创建有依赖关系的多个job描述

第一个job:1.job

[itstar@bigdata111 jobs]$ vi 1.job

type=command

command=/opt/module/hadoop-2.8.4/bin/hadoop fs -put /opt/module/datas/word.txt /

第二个job:2.job依赖1.job

[itstar@bigdata111 jobs]$ vi 2.job

type=command

command=/opt/module/hadoop-2.8.4/bin/hadoop jar /opt/module/hadoop-2.8.4/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.8.4.jar wordcount /word.txt /out

dependencies=1

2)注意:将所有job资源文件打到一个zip包中

3)在azkaban的web管理界面创建工程并上传zip包

4)查看结果

**************************************************************************************************************

我是这样操作的:

1)创建.job文件

 

其中,azkaban.txt文件内容为:

 

2)创建第二个.job文件

 

复制这个jar包所在的绝对路径--》粘贴到创建好的.job文件上

/opt/module/hadoop-2.8.4/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.8.4.jar

 

 注意写依赖关键词dependencies

3)压缩两个文件成为mr.zip

 

 

 4)接下来上传到Azkaban然后执行即可~

注意:因为这个要用到HDFS、MR所以,一定要启动HDFS服务

我这里就启动Hadoop集群了~

 

 

 

 

 

 

 

Execution和History这两个可以用来查看任务执行的状态。

 

5)查看结果

 

思考:

将student.txt文件上传到hdfs,根据所传文件创建外部表,再将表中查询到的结果写入到本地文件


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM