1、hadoop集群使用的ucloud的uahdoop
2、是公司集群配置小,只有兩台core節點,實際就是兩台的datanode。 容量占用超過了80%,需要縮減副本以空出容量。
3、查看
hadoop fs -du -h /user/hive/warehouse/xxwarehouse.db/xx_datasourceraw/partitiondate=2019-10-31
可以看到,每個文件三個副本。
4、執行
hdfs dfs -setrep -R 2 /
將所有的已經上傳的副本從3個變成了兩個
5、再執行第三步腳本確認。
6、最后修改hdfs-site.xml的dfs.replication值為2,這個參數直接通過uhadoop管理后台可以直接修改。
修改后自動重啟了服務並生效。
over