kerberos相關:
kadmin.local //以超管身份進入kadmin kadmin //進入kadmin模式,需輸入密碼 kdb5_util create -r JENKIN.COM -s //創建數據庫 service krb5kdc start //啟動kdc服務 service kadmin start //啟動kadmin服務 service kprop start //啟動kprop服務 kdb5_util dump /var/kerberos/krb5kdc/slave_data //生成dump文件 kprop -f /var/kerberos/krb5kdc/slave_data master2.com //將master數據庫同步是slave kadmin模式下: addprinc -randkey root/master1@JENKIN.COM //生成隨機key的principal addprinc admin/admin //生成指定key的principal listprincs //查看principal change_password -pw xxxx admin/admin //修改admin/admin的密碼 delete_principal admin/admin //刪除principal kinit admin/admin //驗證principal是否可用 xst -norandkey -k /var/kerberos/krb5kdc/keytab/root.keytab root/master1@JENKIN.COM host/master1@JENKIN.COM //為principal生成keytab,可同時添加多個 ktadd -k /etc/krb5.keytab host/master1@JENKIN.COM //ktadd也可生成keytab kinit -k -t /var/kerberos/krb5kdc/keytab/root.keytab root/master1@JENKIN.COM //測試keytab是否可用 klist -e -k -t /var/kerberos/krb5kdc/keytab/root.keytab //查看keytab
hadoop相關:
./bin/hdfs zkfc -formatZK //格式化zkfc ./bin/hdfs namenode -format ns //格式化 namenode ./sbin/start-dfs.sh //啟動dfs, namenode,journalnode,datanode,zkfc都會啟動 ./sbin/start-yarn.sh //啟動yarn,nodemanager, resourcemanager都會啟動 ./sbin/hadoop-daemon.sh start journalnode //啟動journalnode, 也可單獨啟動 namenode, datanode ./sbin/yarn-daemon.sh start resourcemanager //啟動resourcemanager,也可單獨啟動nodemanager ./sbin/start-secure-dns.sh //單獨啟動datanode
./sbin/yarn-daemon.sh start nodemanager //單獨啟動nodemanager
hadoop fs -put ./NOTICE.txt hdfs://ns/ //上傳文件至hdfs根目錄 hadoop fs -ls / 查看hdfs根目錄文件
hadoop fs -mkdir -p /jenkintest/tmp/spark01 [root@hadoop3 soft]# hadoop fs -ls /jenkintest/tmp/ Found 1 items drwxr-xr-x - root supergroup 0 2017-09-18 12:27 /jenkintest/tmp/spark01
命令行操作:
-help
功能:輸出這個命令參數手冊
-ls
功能:顯示目錄信息
示例: hadoop fs -ls hdfs://hadoop-server01:9000/
備注:這些參數中,所有的hdfs路徑都可以簡寫
-->hadoop fs -ls / 等同於上一條命令的效果
-mkdir
功能:在hdfs上創建目錄
示例:hadoop fs -mkdir -p /aaa/bbb/cc/dd
-moveFromLocal
功能:從本地剪切粘貼到hdfs
示例:hadoop fs - moveFromLocal /home/hadoop/a.txt /aaa/bbb/cc/dd
-moveToLocal
功能:從hdfs剪切粘貼到本地
示例:hadoop fs - moveToLocal /aaa/bbb/cc/dd /home/hadoop/a.txt
--appendToFile
功能:追加一個文件到已經存在的文件末尾
示例:hadoop fs -appendToFile ./hello.txt hdfs://hadoop-server01:9000/hello.txt
可以簡寫為:
Hadoop fs -appendToFile ./hello.txt /hello.txt
-cat
功能:顯示文件內容
示例:hadoop fs -cat /hello.txt
-tail
功能:顯示一個文件的末尾
示例:hadoop fs -tail /weblog/access_log.1
-text
功能:以字符形式打印一個文件的內容
示例:hadoop fs -text /weblog/access_log.1
-chgrp
-chmod
-chown
功能:linux文件系統中的用法一樣,對文件所屬權限
示例:
hadoop fs -chmod 666 /hello.txt
hadoop fs -chown someuser:somegrp /hello.txt
-copyFromLocal
功能:從本地文件系統中拷貝文件到hdfs路徑去
示例:hadoop fs -copyFromLocal ./jdk.tar.gz /aaa/
-copyToLocal
功能:從hdfs拷貝到本地
示例:hadoop fs -copyToLocal /aaa/jdk.tar.gz
-cp
功能:從hdfs的一個路徑拷貝hdfs的另一個路徑
示例: hadoop fs -cp /aaa/jdk.tar.gz /bbb/jdk.tar.gz.2
-mv
功能:在hdfs目錄中移動文件
示例: hadoop fs -mv /aaa/jdk.tar.gz /
-get
功能:等同於copyToLocal,就是從hdfs下載文件到本地
示例:hadoop fs -get /aaa/jdk.tar.gz
-
功能:合並下載多個文件
示例:比getmerge 如hdfs的目錄 /aaa/下有多個文件:log.1, log.2,log.3,...
hadoop fs -getmerge /aaa/log.* ./log.sum
-put
功能:等同於copyFromLocal
示例:hadoop fs -put /aaa/jdk.tar.gz /bbb/jdk.tar.gz.2
-rm
功能:刪除文件或文件夾
示例:hadoop fs -rm -r /aaa/bbb/
-rmdir
功能:刪除空目錄
示例:hadoop fs -rmdir /aaa/bbb/ccc
-df
功能:統計文件系統的可用空間信息
示例:hadoop fs -df -h /
-du
功能:統計文件夾的大小信息
示例:
hadoop fs -du -s -h /aaa/*
-count
功能:統計一個指定目錄下的文件節點數量
示例:hadoop fs -count /aaa/
-setrep
功能:設置hdfs中文件的副本數量
示例:hadoop fs -setrep 3 /aaa/jdk.tar.gz
補充:查看dfs集群工作狀態的命令
hdfs dfsadmin -report
