在客戶端輸入Hadoop fs,可以查看所有的,hadoop shell
# -help [cmd] //顯示命令的幫助信息,如: hadoop fs -help ls
# -ls(r) <path> //顯示當前目錄下所有文件,path是hadoop下的路徑,如:/shikun/file
# -du(s) <path> //顯示目錄中所有文件大小
# -count[-q] <path> //顯示目錄中文件數量
# -mv <src> <dst> //移動多個文件到目標目錄
# -cp <src> <dst> //復制多個文件到目標目錄
# -rm(r) //刪除文件(夾)
# -put <localsrc> <dst> //本地文件復制到hdfs
# -copyFromLocal //同put
# -moveFromLocal //從本地文件移動到hdfs
# -get [-ignoreCrc] <src> <localdst> //復制文件到本地,可以忽略crc校驗
# -getmerge <src> <localdst> //將源目錄中的所有文件排序合並到一個文件中
# -cat <src> //在終端顯示文件內容
# -text <src> //在終端顯示文件內容
# -copyToLocal [-ignoreCrc] <src> <localdst> //復制到本地
# -moveToLocal <src> <localdst>
# -mkdir <path> //創建文件夾
# -touchz <path> //創建一個空文件
# HDFS 的shell練習
# hadoop fs -ls / 查看HDFS根目錄
# hadoop fs -mkdir /test 在根目錄創建一個目錄test
# hadoop fs -mkdir /test1 在根目錄創建一個目錄test1
# echo -e 'hadoop second lesson' >test.txt
# hadoop fs -put ./test.txt /test 或 # hadoop fs -copyFromLocal ./test.txt /test
# cd ..
# hadoop fs -get /test/test.txt . 或#hadoop fs -getToLocal /test/test.txt .
# hadoop fs -cp /test/test.txt /test1
# hadoop fs -rm /test1/test.txt
# hadoop fs -mv /test/test.txt /test1
# hadoop fs -rmr /test1