[大數據學習研究]2.利用VirtualBox模擬Linux集群


 

1. 在主機Macbook上設置HOST

前文書已經把虛擬機的靜態IP地址設置好,以后可以通過ip地址登錄了。不過為了方便,還是設置一下,首先在Mac下修改hosts文件,這樣在ssh時就不用輸入ip地址了。

sudo vim /etc/hosts

或者 

sudo vim /private/etc/hosts

 

這兩個文件其實是一個,是通過link做的鏈接。注意要加上sudo, 以管理員運行,否則不能存盤。

 

##
# Host Database
#
# localhost is used to configure the loopback interface
# when the system is booting. Do not change this entry.
##
127.0.0.1 localhost
255.255.255.255 broadcasthost
::1 localhost
50.116.33.29 sublime.wbond.net
127.0.0.1 windows10.microdone.cn
# Added by Docker Desktop
# To allow the same kube context to work on the host and the container:
127.0.0.1 kubernetes.docker.internal

192.168.56.100 hadoop100
192.168.56.101 hadoop101
192.168.56.102 hadoop102
192.168.56.103 hadoop103
192.168.56.104 hadoop104
# End of section

 

2. 復制虛擬機

然后我們需要由上次配好的這一台虛擬機,復制出來多台,以便形成一個集群。首先關閉虛擬,在上面點右鍵,選復制,出現如下對話框,我選擇把所有網卡都重新生成Mac地址,以便模擬完全不同的計算器環境。

 

 

3. 修改每一台的HOST, IP地址

復制完畢后,記得登錄到虛擬機,按照前面提到的方法修改一下靜態IP地址,免得IP地址沖突。

vi /etc/sysconfig/network-scripts/ifcfg-enp0s3

vi /etc/sysconfig/network-scripts/ifcfg-enp0s8

 

另外,最好也在每台Linux 虛擬機里也設置一下HOSTNAME,以便這些虛擬機之前相互通訊時也可以使用hostname。需要依次把幾台機器的hostname都設置好。

[root@hadoop101 ~]# hostnamectl set-hostname hadoop107
[root@hadoop101 ~]# hostname
hadoop107

 

4. xcall讓服務器集群同時運行命令

因為我們同時有好幾台機器,如果挨個挨個的登錄上去操作,難免麻煩,可以寫個shell腳本,以后從其中一台發起命令,讓所有機器都執行就方便多了。下面是個例子。 我有hadopp100,hadopp101、hadopp102、hadopp103、hadopp104這個五台虛擬機。我希望以hadopp100為堡壘,統一控制所有其他的機器。 在/user/local/bin 下創建一個xcall的文件,內容如下:

 

touch /user/local/bin/xcall

chmod +x /user/local/bin/xcall

vi /user/local/bin/xcall

 

#!/bin/bash
pcount=$#
if((pcount==0));then
echo no args;
exit;
fi

echo ---------running at localhost--------
$@
for((host=101;host<=104;host++));do
echo ---------running at hadoop$host-------
ssh hadoop$host $@
done
~

 

比如我用這個xcall腳本在所有機器上調用pwd名稱,查看當前目錄,會依次提示輸入密碼后執行。

[root@hadoop100 ~]# xcall pwd
---------running at localhost--------
/root
---------running at hadoop101-------
root@hadoop101's password:
/root
---------running at hadoop102-------
root@hadoop102's password:
/root
---------running at hadoop103-------
root@hadoop103's password:
/root
---------running at hadoop104-------
root@hadoop104's password:
/root
[root@hadoop100 ~]#

 

5. scp與rsync

然后我們說一下 scp這個工具。 scp可以在linux間遠程拷貝數據。如果要拷貝整個目錄,加 -r 就可以了。

[root@hadoop100 ~]# ls
anaconda-ks.cfg
[root@hadoop100 ~]# scp anaconda-ks.cfg hadoop104:/root/
root@hadoop104's password:
anaconda-ks.cfg 100% 1233 61.1KB/s 00:00
[root@hadoop100 ~]#

 

 

另外還可以用rsync, scp是不管目標機上情況如何,都要拷貝以便。 rsync是先對比一下,有變化的再拷貝。如果要遠程拷貝的東西比較大,用rsync更快一些。 不如rsync在centOS上沒有默認安裝,需要首先安裝一下。在之前的文章中,我們的虛擬機已經可以聯網了,所以在線安裝就可以了。

rsync -rvl $pdir/$fname $user@hadoop$host:$pdir
命令 命令參數 要拷貝的文件路徑/名稱 目的用戶@主機:目的路徑
選項
-r 遞歸
-v 顯示復制過程
-l 拷貝符號連接

 

[root@hadoop100 ~]# xcall sudo yum install -y rsync

比如,把hadoop100機器上的java sdk同步到102上去:

[root@hadoop100 /]# rsync -r /opt/modules/jdk1.8.0_121/ hadoop102:/opt/modules/jdk1.8.0_121/

 

 

然后我們需要一個能把內容自動同步到集群內所有機器的xsync命令;

#!/bin/bash

#1 獲取輸入參數的個數,如果沒有參數則退出
pcount=$#
if((pcount==0)); then
echo no args;
exit;
fi

#2 獲取文件名稱
p1=$1
fname=`basename $p1`
echo fname=$fname

#3 獲取上級目前的絕對路徑
pdir=`cd -P $(dirname $p1); pwd`
echo pdir=$pdir

# 獲取當前用戶名
user=`whoami`

#5 循環
for((host=100;host<105;host++));do
#echo $pdir/$fname $user@hadoop$host:$pdir
echo ---------hadoop$host
rsync -rvl $pdir/$fname $user@hadoop$host:$pdir
done

 

6. SSH免密登錄設置

在執行上面的命令時,發現每次都要輸入密碼,這個也挺煩的,而且后期hadoop集群在啟動時也會需要各機器之前相互授權,如果每次都輸入密碼,確實太麻煩了,所以需要設置一下ssh免密登錄。

首先用ssh-keygen -t rsa 生成秘鑰對,過程中都按回車介紹默認值即可。然后用ssh-copy-id 其他主機,把公鑰發送給要登錄的目標主機,在這個過程中需要輸入密碼以便授權。成功后就可以按照提示用ssh 遠程登錄到其他主機了,並不要求輸入密碼。

 

[root@hadoop104 ~]# ssh-keygen -t rsa
Generating public/private rsa key pair.
Enter file in which to save the key (/root/.ssh/id_rsa):
Enter passphrase (empty for no passphrase):
Enter same passphrase again:
Your identification has been saved in /root/.ssh/id_rsa.
Your public key has been saved in /root/.ssh/id_rsa.pub.
The key fingerprint is:
SHA256:X0I1F6IntPPIJgVHXjmSZ6hmaeWifXa7TmJR9I9YCo8 root@hadoop104
The key's randomart image is:
+---[RSA 2048]----+
| ..+o*.o. |
| ==*== |
| =X+o.o |
| B+.@ + o |
| *S.E * . .|
| . .+o+. |
| o+... |
| . o. |
| .o. |
+----[SHA256]-----+
[root@hadoop104 ~]# ssh-copy-id hadoop100
/usr/bin/ssh-copy-id: INFO: Source of key(s) to be installed: "/root/.ssh/id_rsa.pub"
/usr/bin/ssh-copy-id: INFO: attempting to log in with the new key(s), to filter out any that are already installed
/usr/bin/ssh-copy-id: INFO: 1 key(s) remain to be installed -- if you are prompted now it is to install the new keys
root@hadoop100's password:

Number of key(s) added: 1

Now try logging into the machine, with: "ssh 'hadoop100'"
and check to make sure that only the key(s) you wanted were added.

[root@hadoop104 ~]#     當前在hadoop04下

[root@hadoop104 ~]# ssh hadoop100      
Last failed login: Mon Sep 16 13:15:35 CST 2019 from hadoop103 on ssh:notty
There were 5 failed login attempts since the last successful login.
Last login: Mon Sep 16 09:37:51 2019 from 192.168.56.1
[root@hadoop100 ~]#     已經在目標主機下了 

 

按照上面的方法,把所有集群之間都設置好免密登錄,也就是每台機器上都ssh-keygen生成一個秘鑰對,然后ssh-copy-id到其他幾台虛擬機。

 

好了,到現在基本的工具和集群環境搭建起來了,后面就可以開始hadoop的學習了。

 

題外話

學習研究的話可以用虛擬機,真要認真做點事還是要上雲,比如阿里雲。如果你需要,可以用我的下面這個鏈接,有折扣返現。

https://promotion.aliyun.com/ntms/yunparter/invite.html?userCode=vltv9frd

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM