從客戶端上傳文件到HDFS集群


將HDFS集群的任意一台的hadoop壓縮包拷貝到客戶端,通過ftp拷貝到客戶端

需要本地新建一個文件,之后運用hadoop fs  -put 文件名 /要存儲的位置    例:hadoop fs -put /srv/ftp/hadoop.tar /

查看HDFS的內容:

 

 客戶端的ip地址與主機名的映射

 

三台datnode的數據塊存放的位置:

 

在HDFS中創建hadoop目錄命令:hadoop fs -mkdir /hadoop

上傳文件到hadoop目錄下:hadoop fs -put 文件名(可以同時上傳多個文件) /hadoop

想要遞歸查看HDFS中的所有文件命令:hadoop fs -ls -R /

查看HDFS中的文件夾的大小:hadoop fs -dus / 或者 hadoop fs -du -s /

從HDFS復制到本地:hadoop fs -get HDFS的文件的位置 要復制到的位置

從HDFS下載多個文件到本地合並成一個文件:hadoop fs -getmerge 文件的位置及名字 文件的位置及名字 本地的文件名

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM