使用Nano - 超輕量級開源雲平台搭建雲平台
一、Nano簡介
官網:https://nanos.cloud/
手冊地址: https://nanocloud.readthedocs.io/projects/guide/zh_CN/latest/
Nano是基於KVM技術,使用go語言開發,簡單易學的虛擬機管理軟件。從web管理門戶、主機監控、鏡像克隆到故障切換,功能完備,開箱即用,數分鍾之內即可將服務器集群升級為雲主機平台。
四大技術特性:1)緊湊—純go開發。平台部署僅需要三個二進制之心文件即可,最大模塊僅9MB,無需第三方軟件或者依賴庫,模塊升級時直接替換。
2)開箱即用:從web管理門戶、主機監控、鏡像克隆島故障切換、自帶功能完備,無需安裝額外組件。從網絡發現、組網到設備選擇,全流程自動配置,幾乎不需要人工干預
3)可靠:ALL or Nothing的事務模式處理任務,失敗時自動回撤,釋放所有資源並且還原狀態。集群實時檢測所有節點狀態,在內存中自動同步實例數據,確保所有狀態和操作即使且有效。
4)易擴展:所有功能均提供REST API接口,應用與資源服務的分離,可以便捷的集成開發。基於goroutine的業務邏輯抽象,能夠快速擴展業務功能,而無需了解復雜的后台消息驅動機制。
對於支持Intel VT-d或者AMD-v的普通x86服務器,管理員只需要下載並安裝Nano部署包,即可在幾分鍾內將其轉換成雲管理平台,並且開始創建雲主機實例。
二、基本工作原理
Nano將一台或者多台x86服務器構建成虛擬資源池,當用戶通過web門戶或者REST接口發出創建雲主機請求時,Core模塊根據資源池內各節點的負載情況,選擇合適的承載節點,通過消息控制該承載節點所安裝的Cell模塊進行實例創建,並負責后續的管理調度以及資源回收等工作。
Nano平台目前包含三個模塊:Core/Cell/FrontEnd
Cell負責雲主機的創建與管理;Core將多個Cell組成資源池,根據要求在池內調度和分配雲主機;FrontEnd調用Core的API接口為用戶提供HTML5的管理門戶。
所有的模塊可以安裝在一個服務器上,作為All In One平台進行體驗和測試,但是對生產環境部署時,為了保障平台的可用性,建議每個模塊都部署在獨立的服務器上。
系統中Core是最核心的主控模塊,它負責集群的建立與管理、資源池狀態的監控、雲主機與鏡像資源的分配調度、REST接口服務以及任務請求的處理與分發。啟動集群時,Core模塊需要最先啟動,其他模塊才能正常進入服務狀態。
Cell模塊運行在每個可以部署雲主機實例的服務器節點上,Cell模塊基於kvm與libvirt工作,啟動后持續采集節點資源狀況,並實時同步到Core模塊,另一方面,收到Core發來的實例創建指令時,分配響應的網絡、存儲和計算資源,並組裝成雲主機實例供用戶使用。
三、Nano安裝
1. 服務器要求:
1)支持虛擬化的X86服務器或者打開嵌套虛擬化(Intel VT-x/AMD-v)的虛擬機
2)2核4G內存50GB磁盤和一個網絡設備
2. 系統部署:
安裝Nano平台,只需要解壓並執行Installer即可。只需要選擇需要在當前服務器部署的模塊,Installer會自動完成參數配置、依賴安裝和模塊部署
[root@nano tmp]# wget https://nanos.cloud/files/nano_installer_1.3.0.tar.gz --2020-12-16 22:28:09-- https://nanos.cloud/files/nano_installer_1.3.0.tar.gz Resolving nanos.cloud (nanos.cloud)... 185.245.3.199 Connecting to nanos.cloud (nanos.cloud)|185.245.3.199|:443... connected. HTTP request sent, awaiting response... 200 OK Length: 91443670 (87M) [application/x-gzip] Saving to: ‘nano_installer_1.3.0.tar.gz’ 100%[==============================================================================================>] 91,443,670 1.69MB/s in 53s 2020-12-16 22:29:09 (1.63 MB/s) - ‘nano_installer_1.3.0.tar.gz’ saved [91443670/91443670] [root@web01 tmp]# tar -zxvf nano_installer_1.3.0.tar.gz
[root@nano tmp]# cd nano_installer [root@nano nano_installer]# ll total 3480 drwxrwxr-x 3 1001 1001 4096 Apr 29 2020 bin drwxrwxr-x 2 1001 1001 4096 Jun 26 2018 cert -rwxrwxr-x 1 1001 1001 3551232 Nov 22 17:18 installer drwxrwxr-x 3 1001 1001 4096 Jun 26 2018 rpms
[root@nano nano_installer]# ./installer Welcome to nano installer v1.2.0 0 : Core 1 : FrontEnd 2 : Cell 3 : All 4 : Update 5 : Forcibly Update 6 : Exit Input index to select module to install, multi-modules split by ',' (like 2,3): 3 default route ready firewalld service ready Service Owner Name = 'root' (press enter to accept or input new value): set user root (uid: 0), group root (gid: 0) Group Domain Name = 'nano' (press enter to accept or input new value): Group MultiCast Address = '224.0.0.226' (press enter to accept or input new value): Group MultiCast Port = 5599 (press enter to accept or input new value): cert 'cert/nano_ca.crt.pem', key 'cert/nano_ca.key.pem' already generated cert file '/opt/nano/cert/nano_ca.crt.pem' already installed key file '/opt/nano/cert/nano_ca.key.pem' already installed '/etc/pki/ca-trust/source/anchors/nano_ca.crt.pem' already installed all access modified 3 modules will install... installing cell dependency packages...
try installing from online reciprocity... dependency packages installed 0> eth0 1> eth1 enter index to select interface as interface to bridge: 0 try link interface 'eth0' to bridge 'br0', input 'yes' to confirm:yes network manager stopped network manager disabled 19 params loaded from '/etc/sysconfig/network-scripts/ifcfg-eth0' interface script /etc/sysconfig/network-scripts/ifcfg-eth0 updated bridge script /etc/sysconfig/network-scripts/ifcfg-br0 generated new bridge br0 created link eth0 added to bridge br0 bridge br0 up link eth0 up network service stopped network service restarted installing core module... module path '/opt/nano/core' created binary '/opt/nano/core/core' copied config path '/opt/nano/core/config' created 0> 172.16.1.8 1> 10.0.0.8 enter index to select address as Listen Address, or input a new address: 1 domain configure '/opt/nano/core/config/domain.cfg' generated API Serve Port (5850 ~ 5869) = 5850 (press enter to accept or input new value): api configure '/opt/nano/core/config/api.cfg' generated image server cert path '/opt/nano/core/cert' created private key with 2048 bits generated cert file '/opt/nano/core/cert/nano_image.crt.pem' generated key file '/opt/nano/core/cert/nano_image.key.pem' generated image server configure '/opt/nano/core/config/image.cfg' generated core module installed installing frontend module... module path '/opt/nano/frontend' created binary '/opt/nano/frontend/frontend' copied config path '/opt/nano/frontend/config' created No configures available, following instructions to generate a new one. using 10.0.0.8 as portal listen address Portal listen port (5870 ~ 5899) = 5870 (press enter to accept or input new value): using 10.0.0.8 as api address using 5850 as backend api port default configure '/opt/nano/frontend/config/frontend.cfg' generated frontend module installed installing cell module... module path '/opt/nano/cell' created binary '/opt/nano/cell/cell' copied config path '/opt/nano/cell/config' created user root / group root updated in /etc/libvirt/qemu.conf /dev/kvm owner changed group libvirt already exists user root added to group libvirt libvirt enabled libvirt started domain configure '/opt/nano/cell/config/domain.cfg' generated polkit access installed cell module installed all access modified ip_forward already enabled all modules installed
Installer啟動后首先要求輸入要安裝的模塊,比如輸入”2”+回車只安裝Cell,或者可以輸入”3”+回車,在一個服務器安裝所有模塊
Installer默認把模塊安裝在/opt/nano目錄下,默認的通訊域標識為<”nano”:224.0.0.226:5599>,對於初次安裝或者網絡內僅有一套Nano平台的用戶,不建議調整參數,以免錯誤參數影響平台工作
如果選擇安裝Cell模塊,Installer會要求用戶輸入”yes”確認構建默認的橋接網絡br0
Installer在安裝過程中,會選擇模塊啟動監聽服務的網卡和地址,如果僅有一張網卡,Installer會自動選擇並進行配置;如果存在多個網卡,Installer會列出設備清單要求用戶選擇Nano集群需要工作的網段
3. 啟動服務
所有Nano平台模塊都使用命令行控制,調用方式:“<模塊名稱> [start|stop|status|halt]"
模塊安裝完成后,需要啟動模塊以提供服務,模塊默認安裝在/opt/nano目錄下。使用命令手動啟動所有模塊(假設所有模塊安裝在同一台服務器上)。必須先啟動Core模塊。
[root@nano nano_installer]# cd /opt/nano/ [root@nano nano]# ll total 16 drwxr-----. 3 root root 4096 Dec 20 10:04 cell drwxr-----. 2 root root 4096 Dec 20 09:50 cert drwxr-----. 4 root root 4096 Dec 20 10:04 core drwxr-----. 4 root root 4096 Dec 20 10:04 frontend [root@nano nano]# cd core/ [root@nano core]# ll total 8772 drwxr-----. 2 root root 4096 Dec 20 10:04 cert drwxr-----. 2 root root 4096 Dec 20 10:04 config -rwxr-----. 1 root root 8974336 Dec 20 10:04 core [root@nano core]# ./core start Core Module 1.3.0 service Core_000c29e16c2d listen at '10.0.0.8:5600' group '224.0.0.226:5599', domain 'nano' API address ':5850', image service '10.0.0.8:5801' Image TLS Cert '/opt/nano/core/cert/nano_image.crt.pem', Key '/opt/nano/core/cert/nano_image.key.pem' core started [root@nano core]# cd .. [root@nano nano]# cd cell/ [root@nano cell]# ll total 8020 -rwxr-----. 1 root root 8205968 Dec 20 10:04 cell drwxr-----. 2 root root 4096 Dec 20 10:04 config [root@nano cell]# ./cell start bridge br0 is ready default route ready Cell Modeul 1.3.0 service Cell_000c29e16c2d listen at '10.0.0.8:5602' group '224.0.0.226:5599', domain 'nano' cell started [root@nano cell]# cd .. [root@nano nano]# ll total 16 drwxr-----. 5 root root 4096 Dec 20 10:20 cell drwxr-----. 2 root root 4096 Dec 20 09:50 cert drwxr-----. 6 root root 4096 Dec 20 10:20 core drwxr-----. 4 root root 4096 Dec 20 10:04 frontend [root@nano nano]# cd frontend/ [root@nano frontend]# ll total 6272 drwxr-----. 2 root root 4096 Dec 20 10:04 config -rwxr-----. 1 root root 6414336 Dec 20 10:04 frontend drwxr-xr-x. 3 root root 4096 Dec 20 10:04 web_root [root@nano frontend]# ./frontend start data path /opt/nano/frontend/data created Front-End Module 1.3.0 Core API: http://10.0.0.8:5850/api/v1 Nano Web Portal: http://10.0.0.8:5870 frontend started
FrontEnd模塊成功啟動后,Console會輸出一個監聽地址,使用瀏覽器訪問這個地址就可以開始通過web門戶管理Nano平台了。
四、Nano配置服務
1. 初始化系統
初次打開Nano管理頁面,會提示輸入賬號和密碼,創建初始管理員,密碼要求長度不小於8位,必須包含數字、小寫字母和大寫字母各一個。
創建成功后進入登錄界面,登錄成功后就可以開始管理Nano平台。
2. 設置共享存儲(可選)
默認情況下,Nano中雲主機實例的磁盤數據存儲在承載Cell節點的本次存儲系統中,無需額外配置,性價比也很高。不過管理員也可以指定將數據存在在獨立的NFS文件服務器上,防止Cell節點故障影響雲主機服務,也可以方便的在節點之間遷移實例,重新均衡負載,以提升集群群體性能和使用壽命。
使用共享存儲,只需要創建一個存儲資源池,然后與計算資源池關聯。關聯之后,所有添加到該資源池的資源節點,都會由Nano自動配置為使用共享存儲,無需用戶干預和設置。
一個存儲池對應一個共享存儲路徑,一個存儲池可以同時為多個極端池提供后端存儲,但是每個計算資源池只能綁定一個存儲池。
配置NFS服務器
要讓Nano正常使用NFS存儲后端,首先需要正確配置好NFS服務器。假定NFS server地址為10.0.0.7,共享路徑為/var/nfs/nano,Nano集群網段為10.0.0.0/24.
安裝NFS服務並設置為開機自啟
[root@web01 ~]# yum install nfs-utils
[root@web01 ~]# systemctl start nfs [root@web01 ~]# systemctl status nfs ● nfs-server.service - NFS server and services Loaded: loaded (/usr/lib/systemd/system/nfs-server.service; disabled; vendor preset: disabled) Active: active (exited) since Sun 2020-12-20 11:06:24 CST; 5s ago Process: 1436 ExecStartPost=/bin/sh -c if systemctl -q is-active gssproxy; then systemctl reload gssproxy ; fi (code=exited, status=0/SUCCESS) Process: 1419 ExecStart=/usr/sbin/rpc.nfsd $RPCNFSDARGS (code=exited, status=0/SUCCESS) Process: 1417 ExecStartPre=/usr/sbin/exportfs -r (code=exited, status=0/SUCCESS) Main PID: 1419 (code=exited, status=0/SUCCESS) CGroup: /system.slice/nfs-server.service Dec 20 11:06:24 web01 systemd[1]: Starting NFS server and services... Dec 20 11:06:24 web01 systemd[1]: Started NFS server and services. [root@web01 ~]# systemctl enable nfs Created symlink from /etc/systemd/system/multi-user.target.wants/nfs-server.service to /usr/lib/systemd/system/nfs-server.service.
創建共享路徑
[root@web01 ~]# mkdir -p /var/nfs/nano [root@web01 ~]# ll -d /var/nfs/nano/ drwxr-xr-x 2 root root 4096 Dec 20 11:07 /var/nfs/nano/
由於NFS是將客戶端用戶直接映射到服務端用戶進行權限判斷,當管理員使用不同的用戶運行nano模塊和kvm服務時,需要設置不同的訪問規則
使用root用戶運行nano和kvm/qemu服務
NFS默認禁止將客戶端root映射為服務端root用戶,所以設置路徑時需要使用no_root_squash選項
[root@web01 ~]# vi /etc/exports [root@web01 ~]# cat /etc/exports /var/nfs/nano 10.0.0.0/24(rw,sync,no_subtree_check,no_root_squash) [root@web01 ~]# exportfs -a
[root@web01 ~]# showmount -e Export list for web01: /var/nfs/nano 10.0.0.0/24 [root@web01 ~]# mount -t nfs 10.0.0.7:/var/nfs/nano /mnt [root@web01 ~]# df -h Filesystem Size Used Avail Use% Mounted on /dev/sda2 39G 3.2G 34G 9% / devtmpfs 983M 0 983M 0% /dev tmpfs 993M 0 993M 0% /dev/shm tmpfs 993M 8.7M 984M 1% /run tmpfs 993M 0 993M 0% /sys/fs/cgroup /dev/sda1 197M 95M 103M 48% /boot tmpfs 199M 0 199M 0% /run/user/0 10.0.0.7:/var/nfs/nano 39G 3.2G 34G 9% /mnt
使用普通用戶運行Nano和kvm/qemu服務(忽略)
對於普通用戶,NFS是根據客戶端用戶的uid/gid映射到本地相同id用戶和組進行權限校驗
假定Cell節點運行Nano和kvm/qemu是用戶及用戶組nano/nano,對應的uid/gid為108,則需要在NFS Server創建相同ID的用戶,並且將其設置為共享路徑的owner
創建存儲池
NFS Server配置完成后,在web門戶上選擇“存儲池”—>創建,創建新的共享存儲池
為存儲池設定名稱nfs-pool1,輸入NFS Server地址:10.0.0.7和共享路徑:/var/nfs/nano,點擊創建
創建成功后返回存儲清單,能夠看到新建的存儲池
修改存儲設置
共享存儲創建完成后,可以修改已有計算池的關聯存儲或者新建一個新的計算池,當新的Cell節點加入資源池后,Nano會自動同步並設置存儲配置,無需客戶干預
以修改默認的計算池default為例,在資源池菜單的資源池清單中,點擊default資源池的修改圖標,在編輯界面下拉菜單中選擇新建的“nfs-pool1”
建議需要保證雲主機實例高可用的用戶打開“Failover/故障遷移”開關,當故障遷移生效時,如果Nano檢測到某一個Cell節點失聯,會將該節點承載的雲主機實例自動遷移到集群內其他節點恢復服務。
修改后檢查清單中相應屬性圖標是否生效
設置完成后,就可以向資源池中添加資源節點了,使用了共享存儲的Cell節點創建實例、快照時,會自動保存在NFS Server的共享路徑上。
3. 添加資源
1)添加資源節點
Nano平台初次啟動時,會默認創建一個名為default的計算資源池,但是該資源池沒有可用的資源。因此首先將一個Cell節點添加到該資源池,以便有足夠的資源分配雲主機。
在web門戶上,選擇“資源池”菜單,點擊default資源池的Cell節點按鈕,進入資源節點清單:
當前沒有任何資源節點,點擊“添加”按鈕,進入添加頁面
在下拉菜單中,選擇目前平台中已經發現並且尚未加入資源池Cell節點,完成添加
添加完成回到資源節點清單,可以看到新Cell已經加入資源池,並且處於可用狀態
對於使用共享存儲的Cell節點,添加后請在節點清單中點擊Detail圖標,查看存儲加載狀態,確保后端存儲已經成功掛載。
資源節點狀態可用后,就可以在“資源池”或者“雲主機”菜單創建新主機實例了。
2)上傳鏡像
空白雲主機並不能滿足日常使用要求,需要安裝操作系統和應用軟件,Nano提供了多種手段能夠快速部署可用雲主機
磁盤鏡像
磁盤鏡像保存了模板主機系統磁盤的數據,用戶可以選擇從預置的磁盤鏡像克隆,新建雲主機能夠獲得與模板雲主機完全一致的系統和預裝軟件,有效減少了系統重復安裝部署的時間。
磁盤鏡像匯總還可以通過預裝Cloud-init模塊,配合Nano的CI服務,自動完成管理員密碼初始化、系統磁盤擴容和自動數據盤格式化及掛載等配置任務。
光盤鏡像
光盤鏡像保存了ISO格式的光盤數據,可以加載雲主機中安裝操作系統或者其他軟件,通常用於定制模板雲主機。
默認的資源節點為/var/lib/libvirt/images
存儲系統鏡像文件:/opt/nano/core/data
五、雲主機管理
注:目前推薦對於雲主機使用直連模式的網絡連接,即雲主機通過物理服務器的橋接網絡直接連入物理網絡,默認使用DHCP從物理網絡獲取IP地址,與傳統物理服務器的網絡管理方式一致,盡量減少管理員維護網絡的難度和工作量。
創建雲主機
Nano中雲主機是基於資源池創建的,Core收到創建雲主機請求時,首先檢測池內是否有可用的Cell,然后評估各Cell可用資源和實時負載,選擇加權負載最低的Cell創建實例。
在Nano中創建雲主機時,有以下參數需要設置
主機名:用於標識雲主機,僅允許數字字母和“-”
資源池:承載該實例的資源池名稱,Nano會在指定資源池中選擇合適的Cell節點進行創建
核心數:為雲主機分配的核心數量,不建議超過設置超過Cell的最大物理線程數
內存:為雲主機分配內存大小,不能超過Cell的最大物理內存
系統版本:Nano會根據選擇的版本對雲主機硬件設置進行優化,在保證兼容性的情況下提供更好的性能。
系統磁盤:選擇雲主機系統磁盤的數據源
數據磁盤:選擇是否為雲主機掛載額外的數據盤
開機啟動:啟用后,當Cell服務器開機時,會自動啟動雲主機實例
系統盤鏡像:是否從預制鏡像生成雲主機系統盤的數據
CPU優先級:高優先級實例在繁忙時,會獲得更多系統資源
IOPS:設置磁盤IO讀寫上限,默認為無限制
上下行帶寬:設置網絡帶寬限制,默認無限制
系統鏡像來源有兩種:空白系統和預制鏡像
空白系統:空白系統是默認選項。空白系統意味着創建出來的雲主機沒有安裝任何操作系統和軟件,需要通過加載光盤鏡像安裝操作系統。空白系統通常用於構建模板雲主機。
預制鏡像:預制鏡像的系統磁盤已經預裝了操作系統和系統軟件,並可能進行了一些配置優化和調整,預制鏡像可以通過模板主機構建,也可以從其他平台下載后直接上傳系統。創建雲主機時,在系統鏡像菜單中選擇想要的預制鏡像,克隆完成后的新主機擁有跟源鏡像相同的系統和軟件,能夠開機直接使用。
帶Cloud-init組件的預制鏡像:帶Cloud-init組件的預制鏡像系統中,在普通預制鏡像的基礎上,額外安裝了Cloud-init和cloud-utils組件,配合Nano提供cloud-init服務,可以實現初始化管理員賬號、自動格式化並掛載數據盤和擴展系統盤容量等多種便利的管理功能,極大方便了管理員快速部署雲主機實例。
帶Cloud-init組件的預制鏡像同樣可以通過模板雲主機構建或者直接上傳。使用時,處理選擇源鏡像,還需要勾選Cloud-init模塊並設置好初始化參數,以便Nano提供相應的服務。
1 以預制鏡像創建雲主機
確定后,點擊啟動雲主機
開啟之后,在監控平台查看,可以正常登陸
2. 以空白系統創建雲主機
選擇加載so光盤鏡像
遠程監控可以看到正在安裝系統
六、平台管理
Nano提供了一系列便捷的管理功能,用於簡化管理員的日常運維工作
1. 儀表盤
Nano門戶首頁提供了整個平台級別的資源用量儀表盤,包含虛擬資源和物理資源的用量,便於隨時了解系統負載情況,及時對資源進行擴容或者調整。
2. 增加資源節點
當系統負載較大時,可以通過添加新的資源節點,來擴充池內的可用資源
首先,需要在新的服務器上部署並啟動Cell模塊,然后在資源池的節點清單中,選擇添加
在主機10.0.0.7上安裝cell模塊
[root@web01 nano_installer]# ./installer Welcome to nano installer v1.2.0 0 : Core 1 : FrontEnd 2 : Cell 3 : All 4 : Update 5 : Forcibly Update 6 : Exit Input index to select module to install, multi-modules split by ',' (like 2,3): 2 default route ready warning: firewalld service maybe stopped Nano requires a running firewalld service to work properly. enter to exit installation, or input 'yes' to continue yes warning: choose to continue with risk, your installation may not work Service Owner Name = 'root' (press enter to accept or input new value): set user root (uid: 0), group root (gid: 0) project path '/opt/nano' created Group Domain Name = 'nano' (press enter to accept or input new value): Group MultiCast Address = '224.0.0.226' (press enter to accept or input new value): Group MultiCast Port = 5599 (press enter to accept or input new value): cert 'cert/nano_ca.crt.pem', key 'cert/nano_ca.key.pem' already generated cert install path '/opt/nano/cert' created 'cert/nano_ca.crt.pem' copied to '/opt/nano/cert/nano_ca.crt.pem' 'cert/nano_ca.key.pem' copied to '/opt/nano/cert/nano_ca.key.pem' '/opt/nano/cert/nano_ca.crt.pem' copied to '/etc/pki/ca-trust/source/anchors/nano_ca.crt.pem' '/etc/pki/ca-trust/source/anchors/nano_ca.crt.pem' updated all access modified 1 modules will install... installing cell dependency packages...
try installing from online reciprocity... dependency packages installed try link interface 'eth0' to bridge 'br0', input 'yes' to confirm:yes network manager stopped network manager disabled 19 params loaded from '/etc/sysconfig/network-scripts/ifcfg-eth0' interface script /etc/sysconfig/network-scripts/ifcfg-eth0 updated bridge script /etc/sysconfig/network-scripts/ifcfg-br0 generated new bridge br0 created link eth0 added to bridge br0 bridge br0 up link eth0 up network service stopped network service restarted installing cell module... module path '/opt/nano/cell' created binary '/opt/nano/cell/cell' copied config path '/opt/nano/cell/config' created user root / group root updated in /etc/libvirt/qemu.conf /dev/kvm owner changed group libvirt already exists
[root@web01 ~]# cd /opt [root@web01 opt]# ll total 4 drwxr-----. 4 root root 4096 Dec 20 15:39 nano [root@web01 opt]# cd nano/ [root@web01 nano]# ll total 8 drwxr-----. 3 root root 4096 Dec 20 15:39 cell drwxr-----. 2 root root 4096 Dec 20 15:30 cert [root@web01 nano]# cd cell/ [root@web01 cell]# ll total 8020 -rwxr-----. 1 root root 8205968 Dec 20 15:39 cell drwxr-----. 2 root root 4096 Dec 20 15:39 config [root@web01 cell]# ./cell start bridge br0 is ready default route ready Cell Modeul 1.3.0 service Cell_000c29b1b5c3 listen at '10.0.0.7:5600' group '224.0.0.226:5599', domain 'nano' cell started
安裝成功
在下拉菜單中選擇新裝的Cell節點進行添加
當資源池中Cell節點的狀態變為Online時,就可以承載新建的雲主機實例了
3. 構建模板鏡像
Nano可以將任意雲主機的系統磁盤制作成磁盤鏡像,然后從鏡像快速克隆出於原模板主機系統,軟件一樣的新實例,以便大幅度提升管理員部署實例的效率。