-
第一種方式
啟動:分別啟動HDFS和MapReduce
命令如下:start-dfs.sh start-mapreted.sh
命令如下:stop-dfs.sh stop-mapreted.sh
-
第二種方式
全部啟動或者全部停止
啟動:
命令:start-all.sh
啟動順序:NameNode,DateNode,SecondaryNameNode,JobTracker,TaskTracker
停止:
命令:stop-all.sh
關閉順序性:JobTracker,TaskTracker,NameNode,DateNode,SecondaryNameNode
-
第三種啟動方式
每個守護線程逐一啟動,啟動順序如下:
NameNode,DateNode,SecondaryNameNode,JobTracker,TaskTracker
命令如下:
啟動:
hadoop-daemon.shdaemon(守護進程)
hadoop-daemon.sh start namenode
hadoop-daemon.sh start datenode
hadoop-daemon.sh start secondarynamenode
hadoop-daemon.sh start jobtracker
hadoop-daemon.sh start tasktracker
關閉命令:
hadoop-daemon.sh stop tasktracker
hadoop-daemons.sh 啟動多個進程
datanode與tasktracker會分不到多台機器上,從節點啟動,就使用
