1)Hadoop的啟動(先啟動zookeeper)
3台都得啟動 zookeeper
/export/servers/zookeeper-3.4.9/bin/zkServer.sh start
/export/servers/zookeeper-3.4.9/bin/zkServer.sh status 查看狀態
/export/servers/zookeeper-3.4.9/bin/zkServer.sh stop 關閉
在node01執行啟動hadoop操作:
cd /export/servers/hadoop-2.7.5/
bin/hdfs namenode -format 此步只在初次啟動時操作
sbin/start-dfs.sh
sbin/start-yarn.sh
上面2步合並為 sbin/start-all.sh
sbin/mr-jobhistory-daemon.sh start historyserver
2)node03開啟mysql /etc/init.d/mysqld start
登錄測試: mysql -uroot -p 123456
3)azkaban集群啟動
1.先啟動 exec-server
進入到azkaban-exec目錄下執行2個命名
bin/start-exec.sh
curl -G "node03:$(<./executor.port)/executor?action=activate" && echo //手動激活 executor
2.啟動 web-server
進入到azkaban-web目錄下執行
bin/start-web.sh
https://node03:8443/index 默認用戶名密碼 azkaban
4)hive啟動( 使用beeline連接hiveserver2)
方式1:進入到hive目錄下啟動
cd /export/servers/apache-hive-2.1.1-bin
啟動元數據存儲服務:
bin/hive --service metastore &
啟動hiveserver2:
bin/hive --service hiveserver2 &
方式2:nohup命令啟動(帶 & 后台啟動,nohup深度后台啟動)
nohup /export/servers/apache-hive-2.1.1-bin/bin/hive --service metastore &
nohup /export/servers/apache-hive-2.1.1-bin/bin/hive --service hiveserver2 > /dev/null 2>&1 &
可以把/dev/null 可以看作"黑洞". 它等價於一個只寫文件. 所有寫入它的內容都會永遠丟失. 而嘗試從它那兒讀取內容則什么也讀不到.
/dev/null 2>&1則表示吧標准輸出和錯誤輸出都放到這個“黑洞”,表示什么也不輸出。
//使用beeline連接hiveserver2:
cd /export/servers/apache-hive-2.1.1-bin
bin/beeline
beeline> !connect jdbc:hive2://node03:10000
5)impala集群啟動
!必須先保證hive開啟
主節點node03啟動以下三個服務進程
service impala-state-store start
service impala-catalog start
service impala-server start
從節點啟動node01與node02啟動impala-server
service impala-server start
查看impala進程是否存在
ps -ef | grep impala
瀏覽器頁面訪問:
訪問impalad的管理界面
訪問statestored的管理界面
測試:
在node03機的任意目錄
輸入: impala-shell
6)oozie啟動:
cd /export/servers/oozie-4.1.0-cdh5.14.0
關閉oozie服務
bin/oozied.sh stop
啟動oozie服務
bin/oozied.sh start
瀏覽器頁面訪問:
7)hue啟動:
cd /export/servers/hue-3.9.0-cdh5.14.0/
build/env/bin/supervisor
登錄頁面: http://node03:8888