Hadoop運維操作


1.      處理hadoop的namenode宕機

處理措施:

進入hadoop的bin目錄,重啟namenode服務

操作命令:

cd path/to/hadoop/bin

./hadoop-daemon.sh start namenode

2.      處理hadoop的jobtacker宕機

處理措施:

進入hadoop的bin目錄,重啟jobtacker服務

操作命令:

cd path/to/hadoop/bin

./hadoop-daemon.sh start jobtracker

3.      處理hadoop的datanode宕機

處理措施:

進入hadoop的bin目錄,重啟datanode服務

操作命令:

cd path/to/hadoop/bin

./hadoop-daemon.sh start datanode

4.      處理hadoop的tasktracker宕機

處理措施:

進入hadoop的bin目錄,重啟tasktacker服務

操作命令:

cd path/to/hadoop/bin

./hadoop-daemon.sh start tasktracker

5.      啟動Hadoop集群

處理措施:

進入hadoop的bin目錄,執行start-all.sh腳本

操作命令:

cd path/to/hadoop/bin

./start-all.sh

注意事項:

NameNode在啟動的時候首先進入安全模式,如果datanode丟失的block達到一定的比例(1- dfs.safemode.threshold.pct),則系統會一直處於安全模式狀態即只讀狀態。 dfs.safemode.threshold.pct(缺省值0.999f)表示HDFS啟動的時候,如果DataNode上報的block個數達到了 元數據記錄的block個數的0.999倍才可以離開安全模式,否則一直是這種只讀模式。如果設為1則HDFS永遠是處於SafeMode。

有兩個方法離開這種安全模式

(1)修改dfs.safemode.threshold.pct為一個比較小的值,缺省是0.999。

(2)hadoop dfsadmin -safemode leave命令強制離開

用戶可以通過dfsadmin -safemode $value來操作安全模式,參數$value的說明如下:

  • enter – 進入安全模式
  • leave – 強制NameNode離開安全模式
  • get  – 返回安全模式是否開啟的信息
  • wait – 等待,一直到安全模式結束。

6.      關閉Hadoop機器

處理措施:

進入hadoop的bin目錄,執行stop-all.sh腳本

操作命令:

cd path/to/hadoop/bin

./ stop-all.sh

7.      從Hadoop移除機器

處理措施:

把需要移除的機器增加到exclueds文件中,強制刷新datanode列表,等待Decommission 狀態正常后,即可停機下架,如有必要在namenode執行balancer操作。

操作命令:

在master的conf/hdfs-site.xml中加入

<property>

<name>dfs.hosts.exclude</name>

<value>excludes</value>

 </property>

在$HADOOP_HOME下創建exclueds文件

文件內容增加你想刪除的節點的機器名,一行一個

/bin/hadoop dfsadmin -refreshNodes命令刷新datanode例表

/bin/hadoop dfsadmin -report查看結果

 

Datanodes available: 1 (1 total, 0 dead)

 

Name: 192.168.200.118:50010

Decommission Status : Decommission in progress

Configured Capacity: 211370565632 (196.85 GB)

DFS Used: 11459694592 (10.67 GB)

Non DFS Used: 187135799296 (174.28 GB)

DFS Remaining: 12775071744(11.9 GB)

DFS Used%: 5.42%

DFS Remaining%: 6.04%

Last contact: Wed Feb 22 23:51:48 PST 2012

在Decommission Status : Decommission in progress變為 Decommission Status : Decommission normal前mapreduce會異常增加節點

8.      向Hadoop添加機器

處理措施:

把新機器的增加到conf/slaves文件中,重啟datanode和jobtracker進程,當新添加的機器向namenode發送心跳信息后,namenode會自動感知新加入的機器,如果有必要可以做balancer操作。

操作命令:

1.把新機器的增加到conf/slaves文件中(datanode或者tasktracker crash則可跳過)

2.在新機器上進入Hadoop安裝目錄

$bin/Hadoop-daemon.sh start datanode

$bin/Hadoop-daemon.sh start tasktracker

3.在namenode上

$bin/Hadoop balancer

9.      殺死正在運行的JOB

操作命令:

bin/hadoop job –kill {job-id}

10.處理hbase的master宕機

操作命令:

./hbase-daemon.sh start master

./hbase-daemon.sh start zookeeper//可選

11.處理hbase的regionserver宕機

操作命令:

./hbase-daemon.sh start regionserver

./hbase-deamon.sh start zookeeper//可選

12.Hbase集群間數據遷移方法總結

一、需要在hbase集群停掉的情況下遷移

步驟:

(1)執行hadoop distcp -f filelist "hdfs://new cluster ip:9000/hbasetest"

(2)在new cluster執行./hbase org.jruby.Main add_table.rb /hbase/table20111222,將拷貝來的表加入到.MEAT.中(會出現region的數目不一致的問題,這個需要重啟hase才能解決)

說明:(1)filelist為hdfs上的列表文件,內容如下:

        /hbase/table20111222

        /hbase/table20120131

       (2)如果兩個集群的hadoop版本不一致,需要在new cluster上執行hadoop distcp,否則會出現讀寫異常;

二、在集群運行的時候進行數據遷移

1、Replication:這個是動態的備份(可以理解為實時備份)

     步驟:(1)在old cluster將需要遷移的表屬性進行修改:

               disable 'your_table'

              alter 'your_table', {NAME => 'family_name', REPLICATION_SCOPE => '1'}

              enable 'your_table'

         (2)打開new cluster集群的replication,修改hbase-site.xml

            <property>

              <name>hbase.replication</name>

              <value>true</value>

            </property>

         (3)添加peer,在new cluster的hbase shell中執行:add_peer '1','old cluster ip:2181:/hbase',啟動replication,執行start_replication

     說明:需要兩個集群的hadoop版本一致,否則出現讀寫錯誤

 

2、CopyTable:可以在本集群中拷貝一張表,也可以將表拷貝到其他的集群中。

    命令:./hbase org.apache.hadoop.hbase.mapreduce.CopyTable --peer.adr=new cluster ip:2181:/hbase zy_test

    說明:(1)拷貝完成,不需要重啟機器,在new cluster中就可以看到該表;

         (2)穩定性還需要考慮,測試過程中遇到一個問題,拷貝過程中始終都停留在這里Lookedup root region location, 查看日志沒有什么錯誤和相關的信息。

 

3、Export and Import

    步驟:(1)在old cluster上執行:./hbase org.apache.hadoop.hbase.mapreduce.Export test hdfs://new cluster ip:9000/zhuangyang/test

         (2)在new cluster上執行:./hbase org.apache.hadoop.hbase.mapreduce.Import test hdfs://new cluster ip:9000/zhuangyang/test

    說明:(1)一定要寫全路徑,不能寫相對路勁;

         (2)在import前,需要將表事先在new cluster中創建好.

 

以上都是在old cluster和new cluster網絡相通的情況下實現數據遷移的辦法。

如果兩個集群網絡不通,只能先將old cluster中的數據都下載到本地或者其他的地方,然后在人工的轉移到new cluster上了

 

13.不重啟namenode可以使配置文件生效

hadoop dfsadmin -refreshNodes


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM