#!/bin/sh
feature_data_path='hdfs://xx/xy/xx/test_day_v2'
my_data_path='hdfs://xx/xy/xx/liukai_copy_test_day_v2'
today=`date +%Y%m%d`#显示当前日期 20201216
hour=`date +%H` #显示当前小时 8
echo "para today:$today hour:$hour"
#today:20201216 hour:hour
echo " ${feature_data_path}/${today}"
#hdfs://xx/xy/xx/test_day_v2/20201216
detail=$(hdfs dfs -ls ${feature_data_path}/${today}/_SUCCESS)#显示 {feature_data_path}/${today}的生成时间等信息
#-rw-rw----+ 3 username 用户权限 0 2020-12-16 10:32 hdfs://xx/xy/xx/test_day_v2/20201216
"
参考资料:https://www.cnblogs.com/kongzhongqijing/p/3488884.html
1,第一个栏位代表文件的属性,第一个栏位可以填充10个字母,
1.1第一个字母代表文件类型 ”-”,普通文件. ”d”目录,字母”d”,是dirtectory(目录)的缩写.
1.2紧接着的3*3个字符分3组,各指示此文件的读、写、执行权限,对于owner、group、others而言。
因为Linux是多用户多任务系统,所以一个文件可能同时被许多人使用,所以我们一定要设好每个文件的权限,
其文件的权限位置排列顺序是(以-rwxr-xr-x为例): rwx(Owner)r-x(Group)r-x(Other)
这个例子表示的权限是:使用者自己可读,可写,可执行;同一组的用户可读,不可写,可执行;其它用户可读,不可写,可执行。
2,第二个栏位表示文件个数。如果是文件的话,那这个数目自然是1了,如果是目录的话,那它的数目就是该目录中的文件个数了。
3,第三个栏位表示该文件或目录的拥有者。若使用者目前处于自己的Home,那这一栏大概都是它的账号名称。
4,第四个栏位,表示所属的组(group)。每一个使用者都可以拥有一个以上的组,不过大部分的使用者应该都只属于一个组,只有当系统管理员希望给予某使用者特殊权限时,才可能会给他另一个组。
5,第五栏位,表示文件大小。文件大小用byte来表示,而空目录一般都是1024byte,当然可以用其它参数使文件显示的单位不同,如使用ls –k就是用kb莱显示一个文件的大小单位,不过一般我们还是以byte为主。
6,表示最后一次修改时间。以“月,日,时间”的格式表示,如Aug 15 5:46表示8月15日早上5:46分
7,表示文件名
"
time=$(hdfs dfs -ls ${feature_data_path}/${today}/_SUCCESS|awk -F" " '{print $7}'| awk -F":" '{print $1"_"$2}')
"
-rw-rw----+ 3 username 用户权限 0 2020-12-16 10:32 hdfs://xx/xy/xx/test_day_v2/20201216/_SUCCESS
1,awk -F" " '{print $7}'
空格分隔,取第7个 10:32
2,| awk -F":" '{print $1"_"$2}
:分隔,取第一个和第二个用_连接 10_32
""
echo "detal:$detail hour:$hour time:$time"
echo "copy test data into $my_data_path"
hadoop fs -test -e ${my_data_path}/${today}/${time}
"
hadoop fs -test -e /hdfs_dir
if [ $? -ne 0 ]; then
echo "Directory not exists!"
fi
hadoop fs -test -e 用于判断HDFS目录/文件是否存在,下一步检测该命令的返回值,以确定其判断结果。
$?表示上一条命令返回值,$0表示第一个参数,-ne表示不等于 -eq 等于
0存在 1不存在
"
if [ $? -ne 0 ]; then
echo "Directory not exists!"
hadoop fs -mkdir -p ${my_data_path}/${today}/${time}
echo "${my_data_path}/${today}/${time} was made!!"
echo " begin copy"
hadoop fs -cp ${feature_data_path}/${today} ${my_data_path}/${today}/${time}
echo "end copy"
else
echo "${my_data_path}/${today}/${time} exists!"
fi
获取时间 天和小时
hadoop fs -ls == ll(hadoop 中无ll)
awk 分隔符和取值
判断hadoop文件是否存在
$? -ne -eq 用法
hadoop fs -mkdir -p
hadoop fs -cp