命令行語句:
- vi .bashrc
- source .bashrc
- ssh-keygen -t rsa
集群命令
- hdfs dfs -mkdir /data
- hdfs dfs -ls /
- hdfs dfs -put 本地文件 hdfs集群上的目錄
- hdfs dfs -ls -R hdfs集群上文件目錄
yarn集群上傳文件
- yarn jar **.jar wordcount
reboot重啟
hdfs --daemon start namenode
hdfs --daemon start datanode
hdfs --daemon stop namenode
hdfs --daemon stop datanode
yarn --daemon start resourcemanager
yarn --daemon start nodemanager
搭裝集群
1、修改主機名
sudo vi /etc/hostname
重啟虛擬機才會生效
2、修改主機-IP映射
sudo vi /etc/hosts
3、修改Hadoop的配置文件
//將IP地址修改為集群主節點的主機名
[vi] core-site.xml
[vi] yarn-site.xml
[vi] workers
啟動hdfs集群:一個namenode N個datanode
start-dfs.sh
產生密匙:ssh-keygen -t rsa
將id_rsa中的內容拷貝到suthorized_keys中:
cd ~/.ssh
cat id_rsa.pub >> authorized_keys //追加id_rsa.pub到authorized_keys中
scp ~/.ssh/id_rsa.pub briup@manager:~ //
scp briup@manager:~/.ssh/id_rsa.pub ~ //
cat ~/id_rsa.pub >> ~/.ssh/authorized_keys //追加id_rsa.pub到authorized_keys中
4、刪除Hadoop存儲臨時文件的目錄
rm -r /data
5、格式化namenode
hadoop namenode -format
6、從主節點啟動NameNode進程
hdfs --daemon start namenode
7、從節點啟動DataNode進程
hdfs --daemon start datanode
8、訪問hdfs頁面,查看hdfs集群的從節點是否掛載成功
http://主節點:9870
9、主節點啟動
yarn --daemon start resourcemanager
10、從節點啟動nodemanager進程
yarn --daemon start nodemanager
數據 ---》磁盤
磁盤地址
計算機組成:kernel+shell+文件系統+應用
(分布式)文件系統 借助網絡編程
將磁盤地址映射為一個文件路徑
D:/briup/a.txt
一個文件切分為多個塊文件,每個塊存儲在不同的數據節點datanode中。多個路徑
用戶 只需要根據文件路徑,就可以操作文件
