五、OpenStack—nova組件介紹與安裝


一、nova介紹

  Nova 是 OpenStack 最核心的服務,負責維護和管理雲環境的計算資源。OpenStack 作為 IaaS 的雲操作系統,虛擬機生命周期管理也就是通過 Nova 來實現的。

用途與功能 :
1) 實例生命周期管理
2) 管理計算資源
3) 網絡和認證管理
4)REST 風格的 API
5) 異步的一致性通信
6)Hypervisor 透明:支持Xen,XenServer/XCP,KVM, UML,VMware vSphere and Hyper-V

  在上圖中可以看到,Nova 處於 Openstak 架構的中心,其他組件都為 Nova 提供支持: Glance 為 VM 提供 image Cinder 和 Swift 分別為 VM 提供塊存儲和對象存儲 Neutron 為 VM 提供網絡連接。

Nova 架構如下:

 



Nova 的架構比較復雜,包含很多組件。 這些組件以子服務(后台 deamon 進程)的形式運行,可以分為以下幾類:

API:
nova-api
  是整個 Nova 組件的門戶,接收和響應客戶的 API 調用。所有對 Nova 的請求都首先由 nova-api 處理。nova-api 向外界暴露若干 HTTP REST API 接口 在 keystone 中我們可以查詢 nova-api 的 endponits。


[root@node1 ~]# openstack endpoint list | grep nova

| 2173c915a1044e8a821bae1a0c021fd7 | RegionOne | nova | compute | True | admin | http://node1:8774/v2.1 |
| e795ed786f5442ccb5768afe99b10f6b | RegionOne | nova | compute | True | internal | http://node1:8774/v2.1 |
| fa76111a5b56461d97adbfdf066ceeb1 | RegionOne | nova | compute | True | public | http://node1:8774/v2.1 |

客戶端就可以將請求發送到 endponits 指定的地址,向 nova-api 請求操作。 當然,作為最終用戶的我們不會直接發送 Rest AP I請求。 OpenStack CLI,Dashboard 和其他需要跟 Nova 交換的組件會使用這些 API。


Nova-api 對接收到的 HTTP API 請求會做如下處理:
1. 檢查客戶端傳入的參數是否合法有效
2. 調用 Nova 其他子服務的處理客戶端 HTTP 請求
3. 格式化 Nova 其他子服務返回的結果並返回給客戶端

nova-api 接收哪些請求?
  簡單的說,只要是跟虛擬機生命周期相關的操作,nova-api 都可以響應。 大部分操作都可以在 Dashboard 上找到。打開Instance管理界面

  除了提供 OpenStack 自己的API,nova-api 還支持 Amazon EC2 API。 也就是說,如果客戶以前使用 Amazon EC2,並且用 EC2 的 API 開發了些工具來管理虛機,那么如果現在要換成 OpenStack,這些工具可以無縫遷移到 OpenStack,因為 nova-api 兼容 EC2 API,無需做任何修改。

Compute Core:
  a)nova-scheduler:
  虛機調度服務,負責決定在哪個計算節點上運行虛機。創建 Instance 時,用戶會提出資源需求,例如 CPU、內存、磁盤各需要多少。OpenStack 將這些需求定義在 flavor 中,用戶只需要指定用哪個 flavor 就可以了。

下面介紹 nova-scheduler 是如何實現調度的。在 /etc/nova/nova.conf 中,nova 通過 driver=filter_scheduler 這個參數來配置 nova-scheduler。

Filter scheduler
Filter scheduler 是 nova-scheduler 默認的調度器,調度過程分為兩步:
1. 通過過濾器(filter)選擇滿足條件的計算節點(運行 nova-compute)
2. 通過權重計算(weighting)選擇在最優(權重值最大)的計算節點上創建 Instance。

Nova 允許使用第三方 scheduler,配置 scheduler_driver 即可。 這又一次體現了OpenStack的開放性。Scheduler 可以使用多個 filter 依次進行過濾,過濾之后的節點再通過計算權重選出最適合的節點。

  b)nova-compute:
  nova-compute 是管理虛機的核心服務,在計算節點上運行。通過調用Hypervisor API實現節點上的 instance的生命周期管理。 OpenStack 對 instance 的操作,最后都是交給 nova-compute 來完成的。 nova-compute 與 Hypervisor 一起實現 OpenStack 對 instance 生命周期的管理。
通過Driver架構支持多種Hypervisor
Hypervisor是計算節點上跑的虛擬化管理程序,虛機管理最底層的程序。 不同虛擬化技術提供自己的 Hypervisor。 常用的 Hypervisor 有 KVM,Xen, VMWare 等。nova-compute 為這些 Hypervisor 定義了統一的接口,Hypervisor 只需要實現這些接口,就可以 Driver 的形式即插即用到 OpenStack 系統中。

nova-conductor:
  nova-compute 經常需要更新數據庫,比如更新和獲取虛機的狀態。 出於安全性和伸縮性的考慮,nova-compute 並不會直接訪問數據庫,而是將這個任務委托給 nova-conductor。
這樣做有兩個顯著好處:
1. 更高的系統安全性
2. 更好的系統伸縮性

Console Interface:
nova-console: 用戶可以通過多種方式訪問虛機的控制台:
nova-novncproxy: 基於 Web 瀏覽器的 VNC 訪問
nova-spicehtml5proxy: 基於 HTML5 瀏覽器的 SPICE 訪問
nova-xvpnvncproxy: 基於 Java 客戶端的 VNC 訪問
nova-consoleauth: 負責對訪問虛機控制台請求提供 Token 認證
nova-cert: 提供 x509 證書支持

Database:
Nova 會有一些數據需要存放到數據庫中,一般使用 MySQL。數據庫安裝在控制節點上。 Nova 使用命名為 “nova” 的數據庫。

Message Queue:
  在前面我們了解到 Nova 包含眾多的子服務,這些子服務之間需要相互協調和通信。為解耦各個子服務,Nova 通過 Message Queue 作為子服務的信息中轉站。 所以在架構圖上我們看到了子服務之間沒有直接的連線,是通過 Message Queue 聯系的。
OpenStack 默認是用 RabbitMQ 作為 Message Queue。 MQ 是 OpenStack 的核心基礎組件,我們后面也會詳細介紹。

二、Nova 組件如何協同工作

對於 Nova,這些服務會部署在兩類節點上:計算節點和控制節點
計算節點上安裝了 Hypervisor,上面運行虛擬機。 由此可知:
1. 只有 nova-compute 需要放在計算節點上。
2. 其他子服務則是放在控制節點上的。

從虛機創建流程看 nova-* 子服務如何協同工作
1.客戶(可以是 OpenStack 最終用戶,也可以是其他程序)向 API(nova-api)發送請求:“幫我創建一個虛機”
2.API 對請求做一些必要處理后,向 Messaging(RabbitMQ)發送了一條消息:“讓 Scheduler 創建一個虛機”
3.Scheduler(nova-scheduler)從 Messaging 獲取到 API 發給它的消息,然后執行調度算法,從若干計算節點中選出節點 A
4.Scheduler 向 Messaging 發送了一條消息:“在計算節點 A 上創建這個虛機”
5.計算節點 A 的 Compute(nova-compute)從 Messaging 中獲取到 Scheduler 發給它的消息,然后在本節點的 Hypervisor 上啟動虛機。
6.在虛機創建的過程中,Compute 如果需要查詢或更新數據庫信息,會通過 Messaging 向 Conductor(nova-conductor)發送消息,Conductor 負責數據庫訪問。

三、安裝和配置控制器節點

1、前提條件

  1)登錄數據庫,創建數據庫和服務憑據和API接口
  # mysql -uroot -proot
  2)創建nova_api,nova和nova_cell0數據庫
  MariaDB [(none)]> CREATE DATABASE nova_api;
  MariaDB [(none)]> CREATE DATABASE nova;
  MariaDB [(none)]> CREATE DATABASE nova_cell0;

  3)授予對數據庫的適當訪問權限   

MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'localhost' IDENTIFIED BY 'NOVA_DBPASS';
MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'%' IDENTIFIED BY 'NOVA_DBPASS';
MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'localhost' IDENTIFIED BY 'NOVA_DBPASS';
MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'%' IDENTIFIED BY 'NOVA_DBPASS';
MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_cell0.* TO 'nova'@'localhost' IDENTIFIED BY 'NOVA_DBPASS';
MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_cell0.* TO 'nova'@'%' IDENTIFIED BY 'NOVA_DBPASS';

 

2、創建nova用戶密碼設置為nova

# openstack user create --domain default --password=nova nova
3、將nova用戶添加到admin角色
# openstack role add --project service --user nova admin
4、創建nova服務實體
# openstack service create --name nova \
--description "OpenStack Compute" compute
5、創建Compute API服務端點

# openstack endpoint create --region RegionOne \
compute public http://node1:8774/v2.1
# openstack endpoint create --region RegionOne \
compute internal http://node1:8774/v2.1
# openstack endpoint create --region RegionOne \
compute admin http://node1:8774/v2.1

6、創建placement用戶並設置密碼為placement

# openstack user create --domain default --password=placement placement
7、將placement用戶添加到admin角色
# openstack role add --project service --user placement admin
8、創建Placement服務(資源服務追蹤)
# openstack service create --name placement --description "Placement API" placement
9、創建Placement API服務端點

# openstack endpoint create --region RegionOne placement public http://node1:8778
# openstack endpoint create --region RegionOne placement internal http://node1:8778
# openstack endpoint create --region RegionOne placement admin http://node1:8778

 2、安裝和配置組件

1、下載安裝包

# yum install openstack-nova-api openstack-nova-conductor \ openstack-nova-console openstack-nova-novncproxy \ openstack-nova-scheduler openstack-nova-placement-api

2、編輯/etc/nova/nova.conf配置文件

因為這里我把控制節點也作為了一點計算節點,所以配置文件可能多幾行,

# cp /etc/nova/nova.conf /etc/nova/nova.conf.bak #備份原配置文件

# vim /etc/nova/nova.conf

[DEFAULT] my_ip=192.168.83.171#主機ip use_neutron = True firewall_driver = nova.virt.firewall.NoopFirewallDriver enabled_apis=osapi_compute,metadata transport_url = rabbit://openstack:admin@node1
 [api] auth_strategy = keystone#keystone認證 [api_database] connection = mysql+pymysql://nova:NOVA_DBPASS@node1/nova_api#數據庫用戶,密碼,主機名,庫名
 [barbican] [cache] [cells] [cinder] os_region_name = RegionOne [cloudpipe] [conductor] [console] [consoleauth] [cors] [cors.subdomain] [crypto] [database] connection = mysql+pymysql://nova:NOVA_DBPASS@node1/nova
 [ephemeral_storage_encryption] [filter_scheduler] [glance] api_servers = http://node1:9292
 [guestfs] [healthcheck] [hyperv] [image_file_url] [ironic] [key_manager] [keystone_authtoken] auth_uri = http://node1:5000
auth_url = http://node1:35357
memcached_servers = node1:11211 auth_type = password project_domain_name = default user_domain_name = default project_name = service username = nova password = nova [libvirt] virt_type=qemu#不做計算節點可以不寫 [matchmaker_redis] [metrics] [mks] [neutron]#這個配置段是網絡組件用到的內容,這里可以選擇注釋 url = http://node1:9696
auth_url = http://node1:35357
auth_type = password project_domain_name = default user_domain_name = default region_name = RegionOne project_name = service username = neutron password = neutron service_metadata_proxy = true metadata_proxy_shared_secret = METADATA_SECRET [notifications] [osapi_v21] [oslo_concurrency] lock_path=/var/lib/nova/tmp [oslo_messaging_amqp] [oslo_messaging_kafka] [oslo_messaging_notifications] [oslo_messaging_rabbit] [oslo_messaging_zmq] [oslo_middleware] [oslo_policy] [pci] [placement] os_region_name = RegionOne auth_type = password auth_url = http://node1:35357/v3
project_name = service project_domain_name = Default username = placement password = placement#openstack中placement用戶的密碼 user_domain_name = Default [quota] [rdp] [remote_debug] [scheduler] [serial_console] [service_user] [spice] [ssl] [trusted_computing] [upgrade_levels] [vendordata_dynamic_auth] [vmware] [vnc]#啟用並配置遠程控制台訪問 enabled=true vncserver_listen=$my_ip vncserver_proxyclient_address=$my_ip novncproxy_base_url = http://192.168.83.171:6080/vnc_auto.html
#主機ip,最好寫ip,以防其他主機解析不了主機名
,如果不做計算節點,可以刪除此行 [workarounds] [wsgi] [xenserver] [xvp]

3、由於一些包的bug必須更改/etc/httpd/conf.d/00-nova-placement-api.conf文件來啟用對Placement API的訪問

加入以下內容:

<Directory /usr/bin>
<IfVersion >= 2.4> Require all granted </IfVersion>
<IfVersion < 2.4> Order allow,deny Allow from all </IfVersion>
</Directory>

4、重啟httpd服務

# systemctl restart httpd
5、導入api數據庫數據(入數據的時候步驟許需按順序執行,否則可能報錯)
# su -s /bin/sh -c "nova-manage api_db sync" nova
6、導入證書(cell0)的數據庫內容
# su -s /bin/sh -c "nova-manage cell_v2 map_cell0" nova
7、創建證書的池
# su -s /bin/sh -c "nova-manage cell_v2 create_cell --name=cell1 --verbose" nova
8、同步nova數據庫
# su -s /bin/sh -c "nova-manage db sync" nova
9、驗證nova cell0和cell1是否正確注冊
# nova-manage cell_v2 list_cells
10、完成安裝:啟動Compute服務並將其配置為在系統引導時啟動

# systemctl enable openstack-nova-api.service \ openstack-nova-consoleauth.service openstack-nova-scheduler.service \ openstack-nova-conductor.service openstack-nova-novncproxy.service # systemctl start openstack-nova-api.service \ openstack-nova-consoleauth.service openstack-nova-scheduler.service \ openstack-nova-conductor.service openstack-nova-novncproxy.service

四、計算節點

1、安裝和配置組件  

  1)安裝包  

    # yum install openstack-nova-compute 

  如果需要解決依賴關系請下載,解壓后安裝

  # wget http://download2.yunwei.edu/shell/openstack_app.tar.gz

  2)編輯/etc/nova/nova.conf文件並完成以下操作

 
         
[DEFAULT]

my_ip=192.168.83.171#主機ip
use_neutron = True firewall_driver = nova.virt.firewall.NoopFirewallDriver enabled_apis=osapi_compute,metadata transport_url = rabbit://openstack:admin@node1
 [api] auth_strategy = keystone#keystone認證 [api_database] connection = mysql+pymysql://nova:NOVA_DBPASS@node1/nova_api#數據庫用戶,密碼,主機名,庫名
 [barbican] [cache] [cells] [cinder] os_region_name = RegionOne [cloudpipe] [conductor] [console] [consoleauth] [cors] [cors.subdomain] [crypto] [database] connection = mysql+pymysql://nova:NOVA_DBPASS@node1/nova
 [ephemeral_storage_encryption] [filter_scheduler] [glance] api_servers = http://node1:9292
 [guestfs] [healthcheck] [hyperv] [image_file_url] [ironic] [key_manager] [keystone_authtoken] auth_uri = http://node1:5000
auth_url = http://node1:35357
memcached_servers = node1:11211 auth_type = password project_domain_name = default user_domain_name = default project_name = service username = nova password = nova [libvirt] virt_type=qemu [matchmaker_redis] [metrics] [mks] [neutron]#這個配置段是網絡組件用到的內容,這里可以選擇注釋 url = http://node1:9696
auth_url = http://node1:35357
auth_type = password project_domain_name = default user_domain_name = default region_name = RegionOne project_name = service username = neutron password = neutron service_metadata_proxy = true metadata_proxy_shared_secret = METADATA_SECRET [notifications] [osapi_v21] [oslo_concurrency] lock_path=/var/lib/nova/tmp [oslo_messaging_amqp] [oslo_messaging_kafka] [oslo_messaging_notifications] [oslo_messaging_rabbit] [oslo_messaging_zmq] [oslo_middleware] [oslo_policy] [pci] [placement] os_region_name = RegionOne auth_type = password auth_url = http://node1:35357/v3
project_name = service project_domain_name = Default username = placement password = placement#openstack中placement用戶的密碼 user_domain_name = Default [quota] [rdp] [remote_debug] [scheduler] [serial_console] [service_user] [spice] [ssl] [trusted_computing] [upgrade_levels] [vendordata_dynamic_auth] [vmware] [vnc]#啟用並配置遠程控制台訪問 enabled=true vncserver_listen=$my_ip vncserver_proxyclient_address=$my_ip novncproxy_base_url = http://192.168.83.171:6080/vnc_auto.html
#控制主機ip,最好寫ip,以防其他主機解析不了主機名 [workarounds] [wsgi] [xenserver] [xvp]

2、完成安裝

  1)確定您的計算節點是否支持虛擬機
  # egrep -c '(vmx | svm)' / proc / cpuinfo

  2)啟動Compute服務及其依賴項,並將它們配置為在系統引導時自動啟動:

# systemctl enable libvirtd.service openstack-nova-compute.service # systemctl start libvirtd.service openstack-nova-compute.service

 


2、將計算節點添加到單元數據庫(控制節點操作)
  1)獲取管理員憑據以啟用僅管理員CLI命令,然后確認數據庫中是否存在計算主機
  # openstack hypervisor list
  2)將計算節點加入
  # su -s /bin/sh -c "nova-manage cell_v2 discover_hosts --verbose" nova

五、驗證操作

1、列出服務組件以驗證每個進程的成功啟動和注冊

# openstack compute service list

2、列出Identity服務中的API端點以驗證與Identity服務的連接

# openstack catalog list

3、檢查單元格和放置API是否成功運行

# nova-status upgrade check

+---------------------------+
| Upgrade Check Results     |
+---------------------------+
| Check: Cells v2           |
| Result: Success           |
| Details: None             |
+---------------------------+
| Check: Placement API      |
| Result: Success           |
| Details: None             |
+---------------------------+
| Check: Resource Providers |
| Result: Success           |
| Details: None             |
+---------------------------+

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM