scp、 拷貝完全相同
scp -r etc/hadoop/dfs.hosts root@192.168.121.134:/usr/local/hadoop/hadoop-2.7.6/etc/hadoop/
rsync、拷貝有差異的文件
rsync -rvl etc/hadoop/hdfs-site.xml root@192.168.121.136:/usr/local/hadoop/hadoop-2.7.6/etc/hadoop/
xsync、循環復制文件到所有節點相同的目錄下
!/bin/bash #1獲取輸入參數個數,如果沒有參數,直接退出 pcount=$# if((pcount==0)); then echo no args; exit; fi #2 獲取文件名稱 p1=$1 fname='basename $p1' echo fname=$fname 3 獲取上級目錄到絕對路徑 pdir='cd -P $(dirname $p1); pwd' echo pdir=$pdir 4 獲取當前用戶名稱 user='whoami' 5 循環 for((host=103; host<105; host++)); do echo ------------------- hadooppdir/user@hadooppdir done