PVE手冊資料


PVE

軟件源/etc/apt/souces.list

apt-get update命令獲取軟件源中的軟件包信息

企業版軟件源

/etc/apt/sources.list.d/pve-enterprise.list
如果你沒有訂閱Proxmox VE企業版,可以將企業版軟件源配置信息在軟件源配置文件中注釋掉(在該行開頭插入一個#字符),
以避免系統發出錯誤提示信息。這種情況下可以配置使用pve-no-subscriptin軟件源。

將免費版軟件源配置在/etc/apt/sources.list

deb http://download.proxmox.com/debian jessie pve-no-subscription

測試版軟件源 /etc/apt/sources.list

deb http://download.proxmox.com/debian jessie pvetest

系統軟件升級

apt-get update 
apt-get dist-upgrade 

Debian使用ifup和ifdown命令來啟停網絡接口,所有的網絡配置信息都保存 在/etc/network/interfaces中

注意:
Proxmox VE並不直接編輯配置文件/etc/network/interfaces 。
實際上,我們會先把網絡配置變更保存在臨時文件/etc/network/interfaces.new里,
然后在你重啟服務器時再 用該配置文件覆蓋/etc/network/interfaces。
必須提醒的是,你仍然可以直接編輯配置文件來修改網絡配置。Proxmox VE會盡可能跟蹤並使用用戶設置的最新網絡配置。
但仍然推薦使用GUI來調整網絡配置,因為這能讓你有效避免意外錯誤。

替換國內源

cd /etc/apt/sources.list.d
mv pve-enterprise.list pve-enterprise.list.bak
wget http://download.proxmox.wiki/debian/proxmox-ve-release-6.x.gpg -O /etc/apt/trusted.gpg.d/proxmox-ve-release-6.x.gpg
echo "deb http://download.proxmox.wiki/debian/pve stretch pve-no-subscription" >/etc/apt/sources.list.d/pve-install-repo.list
cat /proc/version  #查看系統版本
cd /etc/apt
mv sources.list sources.list.bak
vi sources.list
deb http://mirrors.aliyun.com/debian/ stretch main non-free contrib
deb-src http://mirrors.aliyun.com/debian/ stretch main non-free contrib
deb http://mirrors.aliyun.com/debian-security stretch/updates main
deb-src http://mirrors.aliyun.com/debian-security stretch/updates main
deb http://mirrors.aliyun.com/debian/ stretch-updates main non-free contrib
deb-src http://mirrors.aliyun.com/debian/ stretch-updates main non-free contrib
deb http://mirrors.aliyun.com/debian/ stretch-backports main non-free contrib
deb-src http://mirrors.aliyun.com/debian/ stretch-backports main non-free contrib
apt-get update 
apt-get dist-upgrade
apt-get install net-tools -y

配置NTP時間服務器

/etc/systemd/timesyncd.conf
默認配置 [Time]
Servers=ntp1.example.com ntp2.example.com ntp3.example.com ntp4.example.com
重啟時鍾同步服務后(systemctl restart systemd-timesyncd),你可以查看日志以驗證新配置的 NTP服務器是否已被啟用
(journalctl –since -1h -u systemd-timesyncd)

外部監控服務器

可以搭建外部監控服務器,外部監控服務器配置信息保存在/etc/pve/status.cfg文件
graphite http://graphiteapp.org
influxdb https://www.influxdata.com/time-series-platform/influxdb

硬盤健康狀態監控

Proxmox VE集成了smartmontools軟件包
你可以運行如下命令獲取磁盤的狀態信息:

smartctl -a /dev/sdX 

其中/dev/sdX是某個本地磁盤的設備文件名稱。
如果命令輸出如下結果:
SMART support is: Disabled
你就需要運行以下命令啟用 SMART監控:

smartctl -s on /dev/sdX 

默認狀態下,smartctltools守護進程smartd將會被啟動並自動運行,每 30分鍾對 /dev/sdX和/dev/hdX進行一次掃描,
如果檢測到的錯誤和警告信息,就向服務器的 root用戶發送e-mail。 可以運行man smartd和man smartd.conf命令,以獲取關於smartd配置方法的更多 信息。

LVM管理器

pvs
vgs
lvs

默認創建data邏輯卷,並用於存儲基於塊存儲的虛擬機鏡像,而/var/lib/vz是根文件系統下的一個路徑

目前一個集群最多可擁有32個物理節點(也可以更多,關鍵在於網絡時延)。

使用pvecm可以創建新的集群,可以向集群新增節點,可以從集群刪除節點,可以查看集群狀態信息,也可以完成其他各種集群管理操作。
Proxmox VE集群文件系統(pmxcfs)用於確保配置信息透明地發送到集群中所有節點,並保持一致。
以集群方式使用Proxmox VE有以下優勢:
集中的web管理
多主集群架構:從任何一個節點都可以管理整個集群
pmxcfs:以數據庫驅動的文件系統保存配置文件,並通過 corosync在確保所有節點的配置信息實時同步。
虛擬機和容器可方便地在物理服務器節點之間遷移。
快速部署。
基於集群的防火牆和 HA服務
集群部署要求
所有節點必須在同一子網,以便各個節點使用 corosync多播通信 (有些交換機默認設置關閉了 IP多播,需要先手工啟用多播通信)#6.0版本單播
如果你需要配置HA,則最少需要3個物理服務器節點,以保證集群多數票機制生效。此外,還需要保證所有節點使用同一版本的Proxmox VE。
我們建議為集群通信分配專用網卡,特別是在配置共享存儲的情況下,分配專用網卡能確保集群通信的穩定可靠。

pvecm status 
pvecm nodes 

為避免虛擬機ID沖突,Proxmox VE規定新節點加入集群前不能配置有任何虛擬機,,新加入節點/etc/pve目錄下的原有配置信息將被集群配置全部覆蓋。
如果節點上已有虛擬機,可以首先使用vzdump將所有虛擬機備份,然后刪除節點上的虛擬機,待加入集群后再用新的虛擬機ID恢復原有虛擬機。
添加位於不同網段的節點
集群網絡和該節點在不同網段,你需要使用ringX_addr參數來指定節點在集群網絡內使用的地址。
pvecm add IP-ADDRESS-CLUSTER -ring0_addr IP-ADDRESS-RING0
如果你要使用冗余環協議,你還需要設置 ring1_addr 參數以傳遞第二個集群網絡地址。
刪除節點(必須在執行刪除命令前先關閉待刪除節點,並且確保被刪除點不再啟動 (在原集群網絡中)。這是非常非常重要的! )
pvecm delnode hp4
如果你在原集群網絡中重新啟動被刪除的節點,你的集群會因此而崩潰,並且很難恢復到一個干凈的狀態。
如果出於某種原因,你需要將被刪除節點重新加入原集群,需要按如下步驟操作:
 格式化被刪除節點,並重新安裝Proxmox VE。
 如前一節所述步驟,將該節點重新加入集群

文件系統恢復

如果你的Proxmox VE服務器出現故障,例如硬件故障,你可以將pmxcfs的數據庫文件/var/lib/pve-cluster/config.db復制到一台新的 Proxmox VE服務器。
在新服務器上(沒有配置任何虛擬機或容器),停止pve-cluster服務,覆蓋config.db文件(需要設置權限為 0600),然后修改/etc/hostname和/etc/hosts和故障服務器對應文件一致,
最后重啟新服務器並檢查是否恢復正常(不要忘記虛擬機/容器鏡像數據)。
將一個節點從集群中刪除之后,推薦的做法是重新安裝 Proxmox VE。這樣可以確保所 有的集群/ssh密鑰和共享配置數據都被徹底清除。
從故障節點恢復/遷移虛擬機
對於未配置使用HA的虛擬機而言,如果其磁盤鏡像保存在共享存儲上:
可以通過將虛擬機配置文件從/etc/pve下故障節點對應目錄手工移動到其他正常節點對應目錄的方式(從而改變該虛擬機從屬的節 點),達到將虛擬機從故障節點手工遷移的目的。
mv /etc/pve/nodes/node1/qemu-server/100.conf /etc/pve/nodes/node2/ #ID為100的虛擬機從故障節點node1遷移到正常節點node2
(使用以上方法遷移虛擬機之前,必須確保故障節點已經確實關機或者被隔離。)

content設置存儲服務所要保存的數據類型

images KVM-Qemu虛擬機鏡像
rootdir 容器鏡像數據
vztmpl 容器模板
backup 虛擬機備份文件
iso ISO鏡像
pvesm status
pvesm list
pvesm path

Proxmox VE支持兩種 USB直通方法:

 基於主機的USB直通
 基於SPICE協議的 USB直通
(這種直通方式需要SPICE客戶端的支持。如果你給虛擬機添加了SPICE USB端口,
那么就可以直接將SPICE客戶端上的USB設備直通給虛擬機使用(例如輸入設備或硬件加密狗))

虛擬機管理命令 qm

qm create 300 -ide0 4 -net0 e1000 -cdrom proxmox-mailgateway_2.1.iso 
qm start 300 
qm shutdown 300 && qm wait 300 
qm shutdown 300 && qm wait 300 -timeout 40 

虛擬機配置文件保存在Proxmox集群文件系統中,並可以通過路徑/etc/pve/qemuserver/ .conf訪問。

和/etc/pve下的其他文件一樣,虛擬機配置文件會自動同 步復制到集群的其他節點。
虛擬機配置文件就是普通文本文件,可以直接使用常見文本編輯器(vi,nano等)編輯。這也是日常對虛擬機配置文件進行細微調整的一般做法。但是務必注意,必須徹底關閉虛擬機,然后再啟動虛擬機,修改后的配置才能生效。
更好的做法是使用qm命令或WebGUI來創建或修改虛擬機配置文件。Proxmox VE能夠直接將大部分變更直接應用到運行中的虛擬機,並即時生效。該特性稱為“熱插拔“,並無需重啟虛擬機。

Proxmox VE使用 LXC作為底層容器技術。我們把LXC當作底層庫來調用,並利用了其眾多功能特性。

直接使用LXC相關工具的難度太高,我們將有關工具進行了包裝, 以“Proxmox容器管理工具”的形式提供給用戶使用,該工具的名字是pct。
容器管理工具pct和Proxmox VE緊密集成在一起,不僅能夠感知Proxmox VE集群環境,而且能夠象虛擬機那樣直接利用 Proxmox VE的網絡資源和存儲資源。
你甚至可以在容器上配置使用 Proxmox VE防火牆和HA高可用性。
我們的主要目標是提供一個和虛擬機一樣的容器運行環境,同時能避免不必要的代價。 我們稱之為“系統容器”。
注意
如果你想運行微容器(如docker,rkt等),最好是在虛擬機里面運行它。

你既可以為集群內的所有主機設置防火牆策略,也可以為單個虛擬機和容器定義策略。

防火牆宏, 安全組,IP集和別名等特性將大大簡化策略配置管理。 盡管所有的防火牆策略都保存在集群文件系統,但基於 iptables的防火牆服務在每個節點都是獨立運行的,從而為虛擬機提供了完全隔離的防護。這套分布式部署的防火牆較傳統防火牆提供了更高的帶寬。
Proxmox VE防火牆將網絡划分為不同區域 : HOST VM

集群級別的防火牆配置

/etc/pve/firewall/cluster.fw
啟用防火牆后,默認所有主機的通信都將被阻斷。唯一例外是集群網絡內的WebGUI(端口8006)和ssh(端口22)訪問可以繼續使用
為簡化配置,你可以創建一個名為“管理地址”的IPSet,並把所有的遠程管理終端IP地址添加進去。這樣就可以創建策略允許所有的遠程地址訪問 WebGUI。

主機級別的防火牆配置

/etc/pve/nodes/ /host.fw
該文件中的配置可以覆蓋cluster.fw中的配置

虛擬機和容器級別的防火牆配置

/etc/pve/firewall/ .fw
每個虛擬網卡設備都有一個防火牆啟用標識。你可以控制每個網卡的防火牆啟用狀態。 在設置啟用虛擬機防火牆后,你必須設置網卡上的防火牆啟用標識才可以真正啟用防火牆。
防火牆需要網絡設備標識配置的配合,在啟用網卡的防火牆標識后你必須重啟虛擬機或容器才可以。

安全組是一個防火牆策略的集合。安全組屬於集群級別的防火牆對象,可用於所有的虛擬機防火牆策略。

服務及管理命令

pve-firewall start/stop/status
Proxmox VE端口列表
Web界面:8006
VNC控制台:5900-5999
SPICE proxy:3128
sshd(用於集群管理):22
rpcbind:111
corosync多播(集群通信使用):5404, 5405 UDP

LXC vs LXD vs Proxmox容器 vs Docker

LXC是Linux內核容器的用戶空間接口。通過強大的 API和易用的工具,Linux用戶能夠輕松地創建並管理系統容器。LXC,及其前任OpenVZ,專注於系統虛擬化,也就是讓你在容器內運行完整的操作系統,其中你可以ssh方式登錄,增加用戶,運行apache服務器等。
LXD基於LXC創建,並提供了更好的用戶體驗。在底層,LXD通過liblxc調用 LXC 及其Go綁定來創建和管理容器。LXD基本上是LXC工具和模版系統的的另一個選擇,只是增加了諸如遠程網絡控制等新的特性。
Proxmox容器也專注於系統虛擬化,並使用LXC作為其底層服務。Proxmox容器工具稱為pct,並和Proxmox VE緊密集成在一起。這意味着 pct能夠利用集群特性,並像虛擬機那樣充分利用相同的網絡和存儲服務。你甚至可以使用Proxmox VE防火牆,備份和恢復,設置容器HA。可以使用Proxmox VE API通過網絡管理容器的全部功能。
Docker專注於在容器內運行單一應用。你可以用 docker工具在主機上管理 docker 實例。但不推薦直接在Proxmox VE主機上運行docker。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM