1. nova介紹
Nova 是 OpenStack 最核心的服務,負責維護和管理雲環境的計算資源。OpenStack 作為 IaaS 的雲操作系統,虛擬機生命周期管理也就是通過 Nova 來實現的。
用途與功能 :
1) 實例生命周期管理;
2) 管理計算資源;
3) 網絡和認證管理;
4) REST 風格的 API;
5) 異步的一致性通信;
6) Hypervisor 透明:支持Xen,XenServer/XCP,KVM, UML, VMware vSphere and Hyper-V。
在上圖中可以看到,Nova 處於 Openstak 架構的中心,其他組件都為 Nova 提供支持: Glance 為 VM 提供 image Cinder 和 Swift 分別為 VM 提供塊存儲和對象存儲 Neutron 為 VM 提供網絡連接。
Nova 架構如下:
Nova 的架構比較復雜,包含很多組件。 這些組件以子服務(后台 deamon 進程)的形式運行,可以分為以下幾類:
API
nova-api,是整個 Nova 組件的門戶,接收和響應客戶的 API 調用。所有對 Nova 的請求都首先由 nova-api 處理。nova-api 向外界暴露若干 HTTP REST API 接口 在 keystone 中我們可以查詢 nova-api 的 endponits。
客戶端就可以將請求發送到 endponits 指定的地址,向 nova-api 請求操作。 當然,作為最終用戶的我們不會直接發送 Rest AP I請求。 OpenStack CLI,Dashboard 和其他需要跟 Nova 交換的組件會使用這些 API。
Nova-api 對接收到的 HTTP API 請求會做如下處理:
1)檢查客戶端傳入的參數是否合法有效;
2)調用 Nova 其他子服務的處理客戶端 HTTP 請求;
3)格式化 Nova 其他子服務返回的結果並返回給客戶端。
nova-api 接收哪些請求?
簡單的說,只要是跟虛擬機生命周期相關的操作,nova-api 都可以響應。 大部分操作都可以在 Dashboard 上找到。打開Instance管理界面
除了提供 OpenStack 自己的API,nova-api 還支持 Amazon EC2 API。 也就是說,如果客戶以前使用 Amazon EC2,並且用 EC2 的 API 開發了些工具來管理虛機,那么如果現在要換成 OpenStack,這些工具可以無縫遷移到 OpenStack,因為 nova-api 兼容 EC2 API,無需做任何修改。
Compute Core
a)nova-scheduler:
虛機調度服務,負責決定在哪個計算節點上運行虛機。創建 Instance 時,用戶會提出資源需求,例如 CPU、內存、磁盤各需要多少。OpenStack 將這些需求定義在 flavor 中,用戶只需要指定用哪個 flavor 就可以了。
可用的 flavor 在 System->Flavors 中管理。
下面介紹 nova-scheduler 是如何實現調度的。
在 /etc/nova/nova.conf 中,nova 通過 driver=filter_scheduler 這個參數來配置 nova-scheduler。
driver=filter_scheduler
Filter scheduler
Filter scheduler 是 nova-scheduler 默認的調度器,調度過程分為兩步:
1> 通過過濾器(filter)選擇滿足條件的計算節點(運行 nova-compute)
2>通過權重計算(weighting)選擇在最優(權重值最大)的計算節點上創建 Instance。
Nova 允許使用第三方 scheduler,配置 scheduler_driver 即可。 這又一次體現了OpenStack的開放性。Scheduler 可以使用多個 filter 依次進行過濾,過濾之后的節點再通過計算權重選出最適合的節點。
上圖是調度過程的一個示例:
1> 最開始有 6 個計算節點 Host1-Host6;
2> 通過多個 filter 層層過濾,Host2 和 Host4 沒有通過,被刷掉了;
3> Host1,Host3,Host5,Host6 計算權重,結果 Host5 得分最高,最終入選。
當 Filter scheduler 需要執行調度操作時,會讓 filter 對計算節點進行判斷,filter 返回 True 或 False。經過前面一堆 filter 的過濾,nova-scheduler 選出了能夠部署 instance 的計算節點。
如果有多個計算節點通過了過濾,那么最終選擇哪個節點呢?
Scheduler 會對每個計算節點打分,得分最高的獲勝。 打分的過程就是 weight,翻譯過來就是計算權重值,那么 scheduler 是根據什么來計算權重值呢?
目前 nova-scheduler 的默認實現是根據計算節點空閑的內存量計算權重值: 空閑內存越多,權重越大,instance 將被部署到當前空閑內存最多的計算節點上。
b)nova-compute:
nova-compute 是管理虛機的核心服務,在計算節點上運行。通過調用Hypervisor API實現節點上的 instance的生命周期管理。 OpenStack 對 instance 的操作,最后都是交給 nova-compute 來完成的。 nova-compute 與 Hypervisor 一起實現 OpenStack 對 instance 生命周期的管理。
通過Driver架構支持多種Hypervisor
Hypervisor是計算節點上跑的虛擬化管理程序,虛機管理最底層的程序。 不同虛擬化技術提供自己的 Hypervisor。 常用的 Hypervisor 有 KVM,Xen, VMWare 等。nova-compute 為這些 Hypervisor 定義了統一的接口,Hypervisor 只需要實現這些接口,就可以 Driver 的形式即插即用到 OpenStack 系統中。 下面是Nova Driver的架構示意圖:
c)nova-conductor:
nova-compute 經常需要更新數據庫,比如更新和獲取虛機的狀態。 出於安全性和伸縮性的考慮,nova-compute 並不會直接訪問數據庫,而是將這個任務委托給 nova-conductor。
這樣做有兩個顯著好處:
1> 更高的系統安全性;
2> 更好的系統伸縮性。
Console Interface
nova-console:用戶可以通過多種方式訪問虛機的控制台:
nova-novncproxy: 基於 Web 瀏覽器的 VNC 訪問
nova-spicehtml5proxy: 基於 HTML5 瀏覽器的 SPICE 訪問
nova-xvpnvncproxy: 基於 Java 客戶端的 VNC 訪問
nova-consoleauth:負責對訪問虛機控制台請求提供 Token 認證
nova-cert:提供 x509 證書支持
Database
Nova 會有一些數據需要存放到數據庫中,一般使用 MySQL。數據庫安裝在控制節點上。 Nova 使用命名為 “nova” 的數據庫。
Message Queue
在前面我們了解到 Nova 包含眾多的子服務,這些子服務之間需要相互協調和通信。為解耦各個子服務,Nova 通過 Message Queue 作為子服務的信息中轉站。 所以在架構圖上我們看到了子服務之間沒有直接的連線,是通過 Message Queue 聯系的。
OpenStack 默認是用 RabbitMQ 作為 Message Queue。 MQ 是 OpenStack 的核心基礎組件,我們后面也會詳細介紹。
2. Nova 組件如何協同工作
Nova 物理部署方案
前面大家已經看到 Nova 由很多子服務組成,我們也知道 OpenStack 是一個分布式系統,可以部署到若干節點上,那么接下來大家可能就會問:Nova 的這些服務在物理上應該如何部署呢?
對於 Nova,這些服務會部署在兩類節點上:計算節點和控制節點。
計算節點上安裝了 Hypervisor,上面運行虛擬機。 由此可知:
1> nova-compute 需要放在計算節點上。
2> 子服務則是放在控制節點上的。
下面我們可以看看實驗環境的具體部署情況。 通過在計算節點和控制節點上運行.
s -elf | grep nova 來查看運行的 nova 子服務
compute只運行了nova-compute子服務
控制節點controller運行了若干nova-*子服務
RabbitMQ 和 MySQL 也是放在控制節點上的。可能細心的同學已經發現我們的控制節點上也運行了 nova-compute。 這實際上也就意味着 devstack-controller 既是一個控制節點,同時也是一個計算節點,也可以在上面運行虛機。
這也向我們展示了 OpenStack 這種分布式架構部署上的靈活性: 可以將所有服務都放在一台物理機上,作為一個 All-in-One 的測試環境; 也可以將服務部署在多台物理機上,獲得更好的性能和高可用。
另外,也可以用 nova service-list 查看 nova-* 子服務都分布在哪些節點上
從虛機創建流程看 nova-* 子服務如何協同工作。
從學習 Nova 的角度看,虛機創建是一個非常好的場景,涉及的 nova-* 子服務很全,下面是流程圖。
- 客戶(可以是 OpenStack 最終用戶,也可以是其他程序)向 API(nova-api)發送請求:“幫我創建一個虛機”
- API 對請求做一些必要處理后,向 Messaging(RabbitMQ)發送了一條消息:“讓 Scheduler 創建一個虛機”
- Scheduler(nova-scheduler)從 Messaging 獲取到 API 發給它的消息,然后執行調度算法,從若干計算節點中選出節點 A
- Scheduler 向 Messaging 發送了一條消息:“在計算節點 A 上創建這個虛機”
- 計算節點 A 的 Compute(nova-compute)從 Messaging 中獲取到 Scheduler 發給它的消息,然后在本節點的 Hypervisor 上啟動虛機。
- 在虛機創建的過程中,Compute 如果需要查詢或更新數據庫信息,會通過 Messaging 向 Conductor(nova-conductor)發送消息,Conductor 負責數據庫訪問。
以上是創建虛機最核心的步驟, 這幾個步驟向我們展示了 nova-* 子服務之間的協作的方式,也體現了 OpenStack 整個系統的分布式設計思想,掌握這種思想對我們深入理解 OpenStack 會非常有幫助。
3. Nova 創建虛擬機詳細過程
1、界面或命令行通過RESTful API向keystone獲取認證信息。
2、keystone通過用戶請求認證信息,並生成auth-token返回給對應的認證請求。
3、界面或命令行通過RESTful API向nova-api發送一個boot instance的請求(攜帶auth-token)。
4、nova-api接受請求后向keystone發送認證請求,查看token是否為有效用戶和token。
5、keystone驗證token是否有效,如有效則返回有效的認證和對應的角色(注:有些操作需要有角色權限才能操作)。
6、通過認證后nova-api和數據庫通訊。
7、初始化新建虛擬機的數據庫記錄。
8、nova-api通過rpc.call向nova-scheduler請求是否有創建虛擬機的資源(Host ID)。
9、nova-scheduler進程偵聽消息隊列,獲取nova-api的請求。
10、nova-scheduler通過查詢nova數據庫中計算資源的情況,並通過調度算法計算符合虛擬機創建需要的主機。
11、對於有符合虛擬機創建的主機,nova-scheduler更新數據庫中虛擬機對應的物理主機信息。
12、nova-scheduler通過rpc.cast向nova-compute發送對應的創建虛擬機請求的消息。
13、nova-compute會從對應的消息隊列中獲取創建虛擬機請求的消息。
14、nova-compute通過rpc.call向nova-conductor請求獲取虛擬機消息。(Flavor)
15、nova-conductor從消息隊隊列中拿到nova-compute請求消息。
16、nova-conductor根據消息查詢虛擬機對應的信息。
17、nova-conductor從數據庫中獲得虛擬機對應信息。
18、nova-conductor把虛擬機信息通過消息的方式發送到消息隊列中。
19、nova-compute從對應的消息隊列中獲取虛擬機信息消息。
20、nova-compute通過keystone的RESTfull API拿到認證的token,並通過HTTP請求glance-api獲取創建虛擬機所需要鏡像。
21、glance-api向keystone認證token是否有效,並返回驗證結果。
22、token驗證通過,nova-compute獲得虛擬機鏡像信息(URL)。
23、nova-compute通過keystone的RESTfull API拿到認證k的token,並通過HTTP請求neutron-server獲取創建虛擬機所需要的網絡信息。
24、neutron-server向keystone認證token是否有效,並返回驗證結果。
25、token驗證通過,nova-compute獲得虛擬機網絡信息。
26、nova-compute通過keystone的RESTfull API拿到認證的token,並通過HTTP請求cinder-api獲取創建虛擬機所需要的持久化存儲信息。
27、cinder-api向keystone認證token是否有效,並返回驗證結果。
28、token驗證通過,nova-compute獲得虛擬機持久化存儲信息。
29、nova-compute根據instance的信息調用配置的虛擬化驅動來創建虛擬機。
4. Nova配置
將三個節點192.168.16.66、.68、.69作如下規划:
控制節點:.66,計算節點.66、.68、.69,然后將.68、.69計算節點加入到.66控制節點。
4.1 安裝和配置控制節點
以已經安裝了keystone和glance的192.168.16.66為控制節點,先在該節點上安裝配置。
1> 創建nova數據庫並給用戶授權
[root@ajy6 ~]# mysql -uroot -p123 MariaDB [(none)]> CREATE DATABASE nova_api; Query OK, 1 row affected (0.01 sec) MariaDB [(none)]> CREATE DATABASE nova; Query OK, 1 row affected (0.00 sec) MariaDB [(none)]> CREATE DATABASE nova_cell0; Query OK, 1 row affected (0.00 sec) MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'localhost' \ -> IDENTIFIED BY 'NOVA_DBPASS'; MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'%' \ -> IDENTIFIED BY 'NOVA_DBPASS'; MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'localhost' \ -> IDENTIFIED BY 'NOVA_DBPASS'; MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'%' \ -> IDENTIFIED BY 'NOVA_DBPASS'; MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_cell0.* TO 'nova'@'localhost' \ -> IDENTIFIED BY 'NOVA_DBPASS'; GRANT ALL PRIVILEGES ON nova_cell0.* TO 'nova'@'%' \ -> IDENTIFIED BY 'NOVA_DBPASS';
2> 登錄OpenStack
[root@ajy6 ~]# source openrc
3> 創建nova用戶
[root@ajy6 ~]# openstack user create --domain default --password=nova nova [root@ajy6 ~]# openstack user list +----------------------------------+--------+ | ID | Name | +----------------------------------+--------+ | 1a82c1e81e1245c4929e9f57b4149c8e | nova | | 463edaeb97584e73b1cc3ea2cf0c6052 | glance | | 4a3f3226d6a74669a23da16b623c386c | admin | | a5b7806347f04a839e5f87098c45e8b1 | demo | +----------------------------------+--------+
4> 將nova用戶添加為管理員角色
[root@ajy6 ~]# openstack role add --project service --user nova admin
5> 創建nova計算服務
[root@ajy6 ~]# openstack service create --name nova \ > --description "OpenStack Compute" compute [root@ajy6 ~]# openstack service list +----------------------------------+----------+----------+ | ID | Name | Type | +----------------------------------+----------+----------+ | 5be8e7d9afe84730b35ca17ae00dccdc | nova | compute | | a3bda1761ac14bfaa6fa6daff9fba4ba | keystone | identity | | bfaf8c43806045038dd086e09b4dfa3e | glance | image | +----------------------------------+----------+----------+
6> 創建nova服務端點
[root@ajy6 ~]# openstack endpoint create --region RegionOne \ > compute public http://ajy6:8774/v2.1 [root@ajy6 ~]# openstack endpoint create --region RegionOne \ > compute internal http://ajy6:8774/v2.1 [root@ajy6 ~]# openstack endpoint create --region RegionOne \ > compute admin http://ajy6:8774/v2.1、
#查看所有服務和其端點,用catalog [root@ajy6 ~]# openstack catalog list +----------+----------+-----------------------------------+ | Name | Type | Endpoints | +----------+----------+-----------------------------------+ | nova | compute | RegionOne | | | | internal: http://ajy6:8774/v2.1 | | | | RegionOne | | | | admin: http://ajy6:8774/v2.1 | | | | RegionOne | | | | public: http://ajy6:8774/v2.1 | | | | | | keystone | identity | RegionOne | | | | admin: http://ajy6:35357/v3/ | | | | RegionOne | | | | internal: http://ajy6:5000/v3/ | | | | RegionOne | | | | public: http://ajy6:5000/v3/ | | | | | | glance | image | RegionOne | | | | admin: http://ajy6:9292 | | | | RegionOne | | | | internal: http://ajy6:9292 | | | | RegionOne | | | | public: http://ajy6:9292 | | | | | +----------+----------+-----------------------------------+
7> 創建服務placement。placement服務用來進行服務統計和服務追蹤,用來進行搜集管理。
[root@ajy6 ~]# openstack user create --domain default --password=placement placement
將用戶placement設置為admin
[root@ajy6 ~]# openstack role add --project service --user placement admin
創建placement service
[root@ajy6 ~]# openstack service create --name placement --description "Placement API" placement
8> 設置placement服務端點
[root@ajy6 ~]# openstack endpoint create --region RegionOne placement public http://ajy6:8778 [root@ajy6 ~]# openstack endpoint create --region RegionOne placement internal http://ajy6:8778 [root@ajy6 ~]# openstack endpoint create --region RegionOne placement admin http://ajy6:8778 [root@ajy6 ~]# openstack catalog list +-----------+-----------+-----------------------------------+ | Name | Type | Endpoints | +-----------+-----------+-----------------------------------+ | placement | placement | RegionOne | | | | internal: http://ajy6:8778 | | | | RegionOne | | | | public: http://ajy6:8778 | | | | RegionOne | | | | admin: http://ajy6:8778 | | | | | | nova | compute | RegionOne | | | | internal: http://ajy6:8774/v2.1 | | | | RegionOne | | | | admin: http://ajy6:8774/v2.1 | | | | RegionOne | | | | public: http://ajy6:8774/v2.1 | | | | | | keystone | identity | RegionOne | | | | admin: http://ajy6:35357/v3/ | | | | RegionOne | | | | internal: http://ajy6:5000/v3/ | | | | RegionOne | | | | public: http://ajy6:5000/v3/ | | | | | | glance | image | RegionOne | | | | admin: http://ajy6:9292 | | | | RegionOne | | | | internal: http://ajy6:9292 | | | | RegionOne | | | | public: http://ajy6:9292 | | | | | +-----------+-----------+-----------------------------------+ [root@ajy6 ~]#
9> 安裝nova服務
[root@ajy6 ~]# yum install openstack-nova-api openstack-nova-conductor \ > openstack-nova-console openstack-nova-novncproxy \ > openstack-nova-scheduler openstack-nova-placement-api -y
10> 編輯配置文件/etc/nova/nova.conf。刪除文件重新配置 。
[root@ajy6 ~]# cd /etc/nova/ [root@ajy6 nova]# ls api-paste.ini nova.conf policy.json release rootwrap.conf [root@ajy6 nova]# cp nova.conf nova.conf.bak [root@ajy6 nova]# vim nova.conf [DEFAULT] my_ip=192.168.16.66 #本機地址 use_neutron = True #使用網絡(開啟) firewall_driver = nova.virt.firewall.NoopFirewallDriver #防火牆驅動 enabled_apis=osapi_compute,metadata #開啟api transport_url = rabbit://openstack:123@ajy6 #消息隊列服務地址 消息隊列OpenStack用戶:密碼@主機地址
[api] auth_strategy = keystone
[api_database] #api數據庫 connection = mysql+pymysql://nova:NOVA_DBPASS@ajy6/nova_api
[barbican] [cache] [cells] [cinder] #os_region_name = RegionOne [cloudpipe] [conductor] [console] [consoleauth] [cors] [cors.subdomain] [crypto] [database] #nova的數據庫 connection = mysql+pymysql://nova:NOVA_DBPASS@ajy6/nova [ephemeral_storage_encryption] [filter_scheduler] [glance] api_servers = http://ajy6:9292
[guestfs] [healthcheck] [hyperv] [image_file_url]
[ironic] [key_manager] [keystone_authtoken] #keystone認證 auth_uri = http://ajy6:5000 auth_url = http://ajy6:35357 memcached_servers = ajy6:11211 #緩存地址,若緩存在其他主機,則寫其他主機名 auth_type = password project_domain_name = default user_domain_name = default project_name = service username = nova password = nova [libvirt] #virt_type=qemu [matchmaker_redis] [metrics] [mks] [neutron] #先將此處注銷 #url = http://controller:9696 #auth_url = http://controller:35357 #auth_type = password #project_domain_name = default #user_domain_name = default #region_name = RegionOne #project_name = service #username = neutron #password = neutron #service_metadata_proxy = true #metadata_proxy_shared_secret = METADATA_SECRET
[notifications] [osapi_v21] [oslo_concurrency]
lock_path=/var/lib/nova/tmp #臨時目錄、文件 [oslo_messaging_amqp] [oslo_messaging_kafka] [oslo_messaging_notifications] [oslo_messaging_rabbit] [oslo_messaging_zmq] [oslo_middleware] [oslo_policy] [pci] [placement] os_region_name = RegionOne auth_type = password auth_url = http://ajy6:35357/v3 project_name = service project_domain_name = Default username = placement password = placement user_domain_name = Default [quota] [rdp] [remote_debug] [scheduler] [serial_console] [service_user] [spice] [ssl] [trusted_computing] [upgrade_levels] [vendordata_dynamic_auth] [vmware] [vnc] enabled=true vncserver_listen=$my_ip vncserver_proxyclient_address=$my_ip #novncproxy_base_url = http://172.16.254.63:6080/vnc_auto.html [workarounds] [wsgi] [xenserver] [xvp]
11> nova-api也是通過http服務進行工作的,因此修改配置文件/etc/httpd/conf.d/00-nova-placement-api.conf。在文件末尾寫入。
[root@ajy6 nova]# vim /etc/httpd/conf.d/00-nova-placement-api.conf <Directory /usr/bin> <IfVersion >= 2.4> Require all granted </IfVersion> <IfVersion < 2.4> Order allow,deny Allow from all </IfVersion> </Directory>
重啟http
[root@ajy6 nova]# systemctl restart httpd
12> 同步nova數據庫
[root@ajy6 nova]# su -s /bin/sh -c "nova-manage api_db sync" nova [root@ajy6 nova]# su -s /bin/sh -c "nova-manage cell_v2 map_cell0" nova [root@ajy6 nova]# su -s /bin/sh -c "nova-manage cell_v2 create_cell --name=cell1 --verbose" nova e5a7963c-6ce1-4615-8bdf-9645d92aebe3 #認證秘鑰 [root@ajy6 nova]# su -s /bin/sh -c "nova-manage db sync" nova /usr/lib/python2.7/site-packages/pymysql/cursors.py:170: Warning: (1831, u'Duplicate index `block_device_mapping_instance_uuid_virtual_name_device_name_idx`. This is deprecated and will be disallowed in a future release.') result = self._query(query) /usr/lib/python2.7/site-packages/pymysql/cursors.py:170: Warning: (1831, u'Duplicate index `uniq_instances0uuid`. This is deprecated and will be disallowed in a future release.') result = self._query(query)
13> 查看cell0和cell1兩個版本的uuid
[root@ajy6 nova]# nova-manage cell_v2 list_cells +-------+--------------------------------------+ | Name | UUID | +-------+--------------------------------------+ | cell0 | 00000000-0000-0000-0000-000000000000 | | cell1 | e5a7963c-6ce1-4615-8bdf-9645d92aebe3 | +-------+--------------------------------------+
14> 啟動nova服務
[root@ajy6 nova]# systemctl enable openstack-nova-api.service \ > openstack-nova-consoleauth.service openstack-nova-scheduler.service \ > openstack-nova-conductor.service openstack-nova-novncproxy.service Created symlink from /etc/systemd/system/multi-user.target.wants/openstack-nova-api.service to /usr/lib/systemd/system/openstack-nova-api.service. [root@ajy6 nova]# systemctl start openstack-nova-api.service \ > openstack-nova-consoleauth.service openstack-nova-scheduler.service \ > openstack-nova-conductor.service openstack-nova-novncproxy.service
至此,控制節點的nova已部署安裝完成。
4.2 安裝和配置計算節點
計算節點在三台主機上都部署。
4.2.1 在主機192.168.16.66上安裝計算節點
1> 下載nova-compute
安裝nova-compute服務要先安裝依賴
[root@ajy6 ~]# ls anaconda-ks.cfg openrc openstack_app.tar.gz openstack-ocata yum-repo.sh [root@ajy6 ~]# cd openstack-ocata/ [root@ajy6 openstack-ocata]# ls cirros-0.3.3-x86_64-disk.img openstack-compute-yilai [root@ajy6 openstack-ocata]# cd openstack-compute-yilai/ [root@ajy6 openstack-compute-yilai]# ls qemu-img-ev-2.9.0-16.el7_4.8.1.x86_64.rpm qemu-kvm-common-ev-2.9.0-16.el7_4.8.1.x86_64.rpm qemu-kvm-ev-2.9.0-16.el7_4.8.1.x86_64.rpm [root@ajy6 openstack-compute-yilai]# yum localinstall ./* [root@ajy6 ~]# yum install openstack-nova-compute -y
2> 編輯配置文件
計算節點同樣要修改配置文件/etc/nova/nova.conf。計算節點和控制節點在同一個主機會同時生成一個配置文件,所以只配置nova.conf即可。配置文件中所有的controller均表示控制節點,在計算節點加入時也應該改為控制節點的主機名而不是計算節點的主機名。
[root@ajy6 ~]# vim /etc/nova/nova.conf [DEFAULT] # ... enabled_apis = osapi_compute,metadata transport_url = rabbit://openstack:RABBIT_PASS@ajy6 my_ip = 192.168.16.66 #節點要設置成管理節點的ip use_neutron = True firewall_driver = nova.virt.firewall.NoopFirewallDriver [api] # ... auth_strategy = keystone [keystone_authtoken] # ... auth_uri = http://ajy6:5000 auth_url = http://ajy6:35357 memcached_servers = ajy6:11211 auth_type = password project_domain_name = default user_domain_name = default project_name = service username = nova password = NOVA_PASS [vnc] enabled=true vncserver_listen=$my_ip vncserver_proxyclient_address=$my_ip novncproxy_base_url = http://192.168.16.66:6080/vnc_auto.html #給虛擬機提供基於web界面的控制台,地址應該寫控制節點的地址
[glance] # ... api_servers = http://controller:9292 [oslo_concurrency] # ... lock_path = /var/lib/nova/tmp [pci]
[placement] os_region_name = RegionOne auth_type = password auth_url = http://ajy6:35357/v3 project_name = service project_domain_name = Default username = placement password = placement user_domain_name = Default [libvirt] virt_type=qemu
3> 開啟計算服務
[root@ajy6 ~]# systemctl enable libvirtd.service openstack-nova-compute.service Created symlink from /etc/systemd/system/multi-user.target.wants/openstack-nova-compute.service to /usr/lib/systemd/system/openstack-nova-compute.service. [root@ajy6 ~]# systemctl start libvirtd.service openstack-nova-compute.service
4> 添加計算節點到cell的庫
查看節點
[root@ajy6 ~]# openstack hypervisor list #虛擬化層 +----+---------------------+-----------------+---------------+-------+ | ID | Hypervisor Hostname | Hypervisor Type | Host IP | State | +----+---------------------+-----------------+---------------+-------+ | 1 | ajy6 | QEMU | 192.168.16.66 | up | +----+---------------------+-----------------+---------------+-------+
將節點同步到數據庫
[root@ajy6 ~]# su -s /bin/sh -c "nova-manage cell_v2 discover_hosts --verbose" nova
這是手動發現的方法,也可以在nova的配置文件/etc/nova/nova.conf里添加自動發現
[scheduler] discover_hosts_in_cells_interval = 300 #自動發現時間為300秒
5> 查看計算服務列表
[root@ajy6 ~]# openstack compute service list +----+-------------+------+----------+---------+-------+--------------+ | ID | Binary | Host | Zone | Status | State | Updated At | +----+-------------+------+----------+---------+-------+--------------+ | 1 | nova- | ajy6 | internal | enabled | up | 2019-06-30T2 | | | consoleauth | | | | | 0:05:53.0000 | | | | | | | | 00 | | 2 | nova- | ajy6 | internal | enabled | up | 2019-06-30T2 | | | conductor | | | | | 0:05:53.0000 | | | | | | | | 00 | | 3 | nova- | ajy6 | internal | enabled | up | 2019-06-30T2 | | | scheduler | | | | | 0:05:53.0000 | | | | | | | | 00 | | 6 | nova- | ajy6 | nova | enabled | up | 2019-06-30T2 | | | compute | | | | | 0:05:48.0000 | | | | | | | | 00 | +----+-------------+------+----------+---------+-------+--------------+
查看catalog服務列表
[root@ajy6 ~]# openstack catalog list +-----------+-----------+-----------------------------------+ | Name | Type | Endpoints | +-----------+-----------+-----------------------------------+ | nova | compute | RegionOne | | | | internal: http://ajy6:8774/v2.1 | | | | RegionOne | | | | public: http://ajy6:8774/v2.1 | | | | RegionOne | | | | admin: http://ajy6:8774/v2.1 | | | | | | placement | placement | RegionOne | | | | internal: http://ajy6:8778 | | | | RegionOne | | | | public: http://ajy6:8778 | | | | RegionOne | | | | admin: http://ajy6:8778 | | | | | | keystone | identity | RegionOne | | | | admin: http://ajy6:35357/v3/ | | | | RegionOne | | | | internal: http://ajy6:5000/v3/ | | | | RegionOne | | | | public: http://ajy6:5000/v3/ | | | | | | glance | image | RegionOne | | | | admin: http://ajy6:9292 | | | | RegionOne | | | | internal: http://ajy6:9292 | | | | RegionOne | | | | public: http://ajy6:9292 | | | | | +-----------+-----------+-----------------------------------+
6> 刷新后再檢測
[root@ajy6 ~]# nova-status upgrade check +---------------------------+ | Upgrade Check Results | +---------------------------+ | Check: Cells v2 | | Result: Success | | Details: None | +---------------------------+ | Check: Placement API | | Result: Success | | Details: None | +---------------------------+ | Check: Resource Providers | | Result: Success | | Details: None |
會有三個成功節點參數
4.2.2 添加計算節點
將節點192.168.16.68、1923.168.16.69部署為計算節點添加到控制節點192.168.16.66.
1> 安裝
[root@ajy6 ~]# scp openstack_app.tar.gz 192.168.16.68:/root root@192.168.16.68's password: openstack_app.tar.gz 100% 17MB 17.4MB/s 00:01 [root@ajy6 ~]# scp openstack_app.tar.gz 192.168.16.69:/root root@192.168.16.69's password: openstack_app.tar.gz 100% 17MB 17.7MB/s 00:00 [root@ajy8 ~]# ls anaconda-ks.cfg openstack_app.tar.gz yum-repo.sh [root@ajy8 ~]# tar zxf openstack_app.tar.gz [root@ajy8 ~]# ls anaconda-ks.cfg openstack_app.tar.gz openstack-ocata yum-repo.sh [root@ajy8 ~]# cd openstack-ocata/ [root@ajy8 openstack-ocata]# ls cirros-0.3.3-x86_64-disk.img openstack-compute-yilai [root@ajy8 openstack-ocata]# cd openstack-compute-yilai/ [root@ajy8 openstack-compute-yilai]# ls qemu-img-ev-2.9.0-16.el7_4.8.1.x86_64.rpm qemu-kvm-common-ev-2.9.0-16.el7_4.8.1.x86_64.rpm qemu-kvm-ev-2.9.0-16.el7_4.8.1.x86_64.rpm [root@ajy8 openstack-compute-yilai]# yum localinstall ./* -y [root@ajy8 ~]#yum install openstack-nova-compute
對192.168.16.69進行同樣的操作。
2> 編輯配置文件,同樣的,文件里的controller表示的是控制節點,將此節點該改為控制節點ajy6。
[DEFAULT] my_ip=192.168.16.68 use_neutron = True firewall_driver = nova.virt.firewall.NoopFirewallDriver enabled_apis=osapi_compute,metadata transport_url = rabbit://openstack:123@ajy6 [api] auth_strategy = keystone [api_database] connection = mysql+pymysql://nova:NOVA_DBPASS@ajy6/nova_api [barbican] [cache] [cells] [cinder] #os_region_name = RegionOne [cloudpipe] [conductor] [console] [consoleauth] [cors] [cors.subdomain] [crypto] [database] connection = mysql+pymysql://nova:NOVA_DBPASS@ajy6/nova [ephemeral_storage_encryption] [filter_scheduler] [glance] api_servers = http://ajy6:9292 [guestfs] [healthcheck] [hyperv] [image_file_url] [ironic] [key_manager] [keystone_authtoken] auth_uri = http://ajy6:5000 auth_url = http://ajy6:35357 memcached_servers = ajy6:11211 auth_type = password project_domain_name = default user_domain_name = default project_name = service username = nova password = nova [libvirt] virt_type=qemu [matchmaker_redis] [metrics] [mks] [neutron] #url = http://controller:9696 #auth_url = http://controller:35357 #auth_type = password #project_domain_name = default #user_domain_name = default #region_name = RegionOne #project_name = service #username = neutron #password = neutron #service_metadata_proxy = true #metadata_proxy_shared_secret = METADATA_SECRET [notifications] [osapi_v21] [oslo_concurrency] lock_path=/var/lib/nova/tmp
[oslo_messaging_amqp] [oslo_messaging_kafka] [oslo_messaging_notifications] [oslo_messaging_rabbit] [oslo_messaging_zmq] [oslo_middleware] [oslo_policy] [pci] [placement] os_region_name = RegionOne auth_type = password auth_url = http://ajy6:35357/v3 project_name = service project_domain_name = Default username = placement password = placement user_domain_name = Default [quota] [rdp] [remote_debug] [scheduler] [serial_console] [service_user] [spice] [ssl] [trusted_computing] [upgrade_levels] [vendordata_dynamic_auth] [vmware] [vnc] enabled=true vncserver_listen=$my_ip vncserver_proxyclient_address=$my_ip novncproxy_base_url = http://192.168.16.66:6080/vnc_auto.html [workarounds] [wsgi] [xenserver] [xvp]
192.168.16.69同樣操作。
注意本地主機ip
3> 重啟
[root@ajy8 nova]# systemctl enable libvirtd.service openstack-nova-compute.service Created symlink from /etc/systemd/system/multi-user.target.wants/openstack-nova-compute.service to /usr/lib/systemd/system/openstack-nova-compute.service. [root@ajy8 nova]#
同樣對192.168.16.69進行操作。
4> 兩個計算節點配置完成后返回控制節點進行查看
[root@ajy6 ~]# openstack compute service list +----+------------------+------+----------+---------+-------+----------------------------+ | ID | Binary | Host | Zone | Status | State | Updated At | +----+------------------+------+----------+---------+-------+----------------------------+ | 1 | nova-consoleauth | ajy6 | internal | enabled | up | 2019-06-30T20:52:14.000000 | | 2 | nova-conductor | ajy6 | internal | enabled | up | 2019-06-30T20:52:13.000000 | | 3 | nova-scheduler | ajy6 | internal | enabled | up | 2019-06-30T20:52:14.000000 | | 6 | nova-compute | ajy6 | nova | enabled | up | 2019-06-30T20:52:08.000000 | | 7 | nova-compute | ajy8 | nova | enabled | up | 2019-06-30T20:52:08.000000 | | 8 | nova-compute | ajy9 | nova | enabled | up | 2019-06-30T20:52:08.000000 | +----+------------------+------+----------+---------+-------+----------------------------+ [root@ajy6 ~]# [root@ajy6 ~]# [root@ajy6 ~]# openstack hypervisor list +----+---------------------+-----------------+---------------+-------+ | ID | Hypervisor Hostname | Hypervisor Type | Host IP | State | +----+---------------------+-----------------+---------------+-------+ | 1 | ajy6 | QEMU | 192.168.16.66 | up | | 2 | ajy8 | QEMU | 192.168.16.68 | up | | 3 | ajy9 | QEMU | 192.168.16.69 | up | +----+---------------------+-----------------+---------------+-------+ [root@ajy6 ~]#