#!/bin/sh
feature_data_path='hdfs://xx/xy/xx/test_day_v2'
my_data_path='hdfs://xx/xy/xx/liukai_copy_test_day_v2'
today=`date +%Y%m%d`#顯示當前日期 20201216
hour=`date +%H` #顯示當前小時 8
echo "para today:$today hour:$hour"
#today:20201216 hour:hour
echo " ${feature_data_path}/${today}"
#hdfs://xx/xy/xx/test_day_v2/20201216
detail=$(hdfs dfs -ls ${feature_data_path}/${today}/_SUCCESS)#顯示 {feature_data_path}/${today}的生成時間等信息
#-rw-rw----+ 3 username 用戶權限 0 2020-12-16 10:32 hdfs://xx/xy/xx/test_day_v2/20201216
"
參考資料:https://www.cnblogs.com/kongzhongqijing/p/3488884.html
1,第一個欄位代表文件的屬性,第一個欄位可以填充10個字母,
1.1第一個字母代表文件類型 ”-”,普通文件. ”d”目錄,字母”d”,是dirtectory(目錄)的縮寫.
1.2緊接着的3*3個字符分3組,各指示此文件的讀、寫、執行權限,對於owner、group、others而言。
因為Linux是多用戶多任務系統,所以一個文件可能同時被許多人使用,所以我們一定要設好每個文件的權限,
其文件的權限位置排列順序是(以-rwxr-xr-x為例): rwx(Owner)r-x(Group)r-x(Other)
這個例子表示的權限是:使用者自己可讀,可寫,可執行;同一組的用戶可讀,不可寫,可執行;其它用戶可讀,不可寫,可執行。
2,第二個欄位表示文件個數。如果是文件的話,那這個數目自然是1了,如果是目錄的話,那它的數目就是該目錄中的文件個數了。
3,第三個欄位表示該文件或目錄的擁有者。若使用者目前處於自己的Home,那這一欄大概都是它的賬號名稱。
4,第四個欄位,表示所屬的組(group)。每一個使用者都可以擁有一個以上的組,不過大部分的使用者應該都只屬於一個組,只有當系統管理員希望給予某使用者特殊權限時,才可能會給他另一個組。
5,第五欄位,表示文件大小。文件大小用byte來表示,而空目錄一般都是1024byte,當然可以用其它參數使文件顯示的單位不同,如使用ls –k就是用kb萊顯示一個文件的大小單位,不過一般我們還是以byte為主。
6,表示最后一次修改時間。以“月,日,時間”的格式表示,如Aug 15 5:46表示8月15日早上5:46分
7,表示文件名
"
time=$(hdfs dfs -ls ${feature_data_path}/${today}/_SUCCESS|awk -F" " '{print $7}'| awk -F":" '{print $1"_"$2}')
"
-rw-rw----+ 3 username 用戶權限 0 2020-12-16 10:32 hdfs://xx/xy/xx/test_day_v2/20201216/_SUCCESS
1,awk -F" " '{print $7}'
空格分隔,取第7個 10:32
2,| awk -F":" '{print $1"_"$2}
:分隔,取第一個和第二個用_連接 10_32
""
echo "detal:$detail hour:$hour time:$time"
echo "copy test data into $my_data_path"
hadoop fs -test -e ${my_data_path}/${today}/${time}
"
hadoop fs -test -e /hdfs_dir
if [ $? -ne 0 ]; then
echo "Directory not exists!"
fi
hadoop fs -test -e 用於判斷HDFS目錄/文件是否存在,下一步檢測該命令的返回值,以確定其判斷結果。
$?表示上一條命令返回值,$0表示第一個參數,-ne表示不等於 -eq 等於
0存在 1不存在
"
if [ $? -ne 0 ]; then
echo "Directory not exists!"
hadoop fs -mkdir -p ${my_data_path}/${today}/${time}
echo "${my_data_path}/${today}/${time} was made!!"
echo " begin copy"
hadoop fs -cp ${feature_data_path}/${today} ${my_data_path}/${today}/${time}
echo "end copy"
else
echo "${my_data_path}/${today}/${time} exists!"
fi
獲取時間 天和小時
hadoop fs -ls == ll(hadoop 中無ll)
awk 分隔符和取值
判斷hadoop文件是否存在
$? -ne -eq 用法
hadoop fs -mkdir -p
hadoop fs -cp