寫在前面的話
通過上一節,知道了 K8S 有 Master / Node 組成,但是具體怎么個組成法,就是這一節具體談的內容。概念性的東西我們會盡量以實驗的形式將其復現。
部署 K8S 集群
互聯網常用的 K8S 集群部署方式:
1. kubeadm(我們本次用到的)
2. rancher
3. 雲服務商提供的(如阿里雲提供的 K8S)
4. yum 安裝(版本有點低,不推薦)
准備:
IP | 主機名 | 角色 | 安裝 |
---|---|---|---|
192.168.100.101 | node1 | Master | kubeadm/kubelet/kubectl/docker-ce/flannel |
192.168.100.102 | node2 | Node | kubeadm/kubelet/kubectl/docker-ce/flannel |
192.168.100.103 | node3 | Node | kubeadm/kubelet/kubectl/docker-ce/flannel |
准備 3 台初始化的機器,內存大於 2G。
至於 kubeadm 文檔如下,感興趣的可以去看看:
https://github.com/kubernetes/kubeadm/blob/master/docs/design/design_v1.10.md
【1】所有節點初始化操作:
# 配置主機名解析 echo "192.168.100.101 node1" >>/etc/hosts echo "192.168.100.102 node2" >>/etc/hosts echo "192.168.100.103 node3" >>/etc/hosts # 關閉防火牆 systemctl stop firewalld systemctl disable firewalld # 取消 swap swapoff -a # 配置 ipvs echo 'net.bridge.bridge-nf-call-ip6tables = 1 net.bridge.bridge-nf-call-iptables = 1 net.ipv4.ip_forward = 1' > /etc/sysctl.d/k8s.conf # 使配置生效 modprobe br_netfilter sysctl -p /etc/sysctl.d/k8s.conf # kube-proxy 配置 ipvs echo 'modprobe -- ip_vs modprobe -- ip_vs_rr modprobe -- ip_vs_wrr modprobe -- ip_vs_sh modprobe -- nf_conntrack_ipv4' >> /etc/sysconfig/modules/ipvs.modules # 生效配置 chmod 755 /etc/sysconfig/modules/ipvs.modules bash /etc/sysconfig/modules/ipvs.modules lsmod | grep -e ip_vs -e nf_conntrack_ipv4 # 時間同步 yum -y install ntpdate ntpdate cn.pool.ntp.org echo "*/20 * * * * /usr/sbin/ntpdate cn.pool.ntp.org" >> /var/spool/cron/root
簡單的做個說明,上面的步驟是每個節點都需要進行的初始化操作,屬於必須進行了。第一個主機名解析需要根據自己的實際情況進行一定量的修改。關閉防火牆是為了保證我們的通信能夠正常完成。至於開啟 ipvs 我們在上一節提到過,在 K8S 1.11 版本以后,系統的負載均衡調度選用的是 ipvs 規則,能夠提高我們集群的性能。如果你不配置 ipvs,可能還會使用 iptables 規則,這不是我們想要看到的。
值得注意的是,時間同步在 docker 和 K8S 集群中都特別重要,所以一定要保證時間與互聯網時間同步,否則可能導致莫名其妙的 BUG,如:鏡像拉取失敗,報錯:
x509: certificate has expired or is not yet valid
【2】所有節點都安裝配置 docker:
# 卸載舊版本 yum remove docker docker-client docker-client-latest docker-common docker-latest docker-latest-logrotate docker-logrotate docker-engine # 安裝依賴 yum install -y yum-utils device-mapper-persistent-data lvm2 bridge-utils bash-completion wget # 配置阿里 yum 源 cd /etc/yum.repos.d wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo # 安裝 docker yum -y install docker-ce
配置 docker 阿里雲下載加速:(這里的加速地址是網友的,如果你想用自己的,可以去阿里雲搞一個,具體就不詳細說明了,網上很多)
mkdir -p /etc/docker echo '{ "registry-mirrors": ["https://eyg9yi6d.mirror.aliyuncs.com"] }' > /etc/docker/daemon.json
啟動 docker:
systemctl enable docker
systemctl start docker
docker version
我這里 docker 版本為: 18.09.6
【3】所有節點都配置 K8S 源並安裝 K8S:
cat <<EOF > /etc/yum.repos.d/kubernetes.repo [kubernetes] name=Kubernetes baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64 enabled=1 gpgcheck=0 repo_gpgcheck=0 gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg EOF
安裝 K8S 並設置開機啟動,但是先不啟動:
yum makecache fast yum install -y kubelet kubeadm kubectl
systemctl enable kubelet
我們這里安裝 K8S 版本為:v1.14.2
【4】節點下載鏡像:
由於國內網絡的原因,K8S 的鏡像站是連接不上的,需要手動去下載,這里有個我寫的腳本,修改成你的 K8S 版本就行(K8S_VERSION):
#!/bin/bash ################################################################# # 作者:Dy1an <1214966109@qq.com> # 日期:2019-05-23 # 作用:下載 K8S 相關鏡像 ################################################################# ################################################################# # 系統相關變量 ################################################################# LINE="===================================================================" MY_REGISTRY=registry.cn-hangzhou.aliyuncs.com/openthings K8S_VERSION="v1.14.2" ################################################################# # 拉取鏡像 ################################################################# echo ${LINE} echo "Pull Kubernetes ${K8S_VERSION} Images from aliyuncs.com ......" echo ${LINE} docker pull ${MY_REGISTRY}/k8s-gcr-io-kube-apiserver:${K8S_VERSION} docker pull ${MY_REGISTRY}/k8s-gcr-io-kube-controller-manager:${K8S_VERSION} docker pull ${MY_REGISTRY}/k8s-gcr-io-kube-scheduler:${K8S_VERSION} docker pull ${MY_REGISTRY}/k8s-gcr-io-kube-proxy:${K8S_VERSION} docker pull ${MY_REGISTRY}/k8s-gcr-io-etcd:3.3.10 docker pull ${MY_REGISTRY}/k8s-gcr-io-pause:3.1 docker pull ${MY_REGISTRY}/k8s-gcr-io-coredns:1.3.1 ################################################################# # 修改 tag ################################################################# echo ${LINE} echo "Change Kubernetes ${K8S_VERSION} Images tags ......" echo ${LINE} docker tag ${MY_REGISTRY}/k8s-gcr-io-kube-apiserver:${K8S_VERSION} k8s.gcr.io/kube-apiserver:${K8S_VERSION} docker tag ${MY_REGISTRY}/k8s-gcr-io-kube-scheduler:${K8S_VERSION} k8s.gcr.io/kube-scheduler:${K8S_VERSION} docker tag ${MY_REGISTRY}/k8s-gcr-io-kube-controller-manager:${K8S_VERSION} k8s.gcr.io/kube-controller-manager:${K8S_VERSION} docker tag ${MY_REGISTRY}/k8s-gcr-io-kube-proxy:${K8S_VERSION} k8s.gcr.io/kube-proxy:${K8S_VERSION} docker tag ${MY_REGISTRY}/k8s-gcr-io-etcd:3.3.10 k8s.gcr.io/etcd:3.3.10 docker tag ${MY_REGISTRY}/k8s-gcr-io-pause:3.1 k8s.gcr.io/pause:3.1 docker tag ${MY_REGISTRY}/k8s-gcr-io-coredns:1.3.1 k8s.gcr.io/coredns:1.3.1 ################################################################# # 提示完成 ################################################################# echo ${LINE} echo "Pull Kubernetes ${K8S_VERSION} Images FINISHED." echo ${LINE}
在每台機器上面執行腳本,下載完成后查看鏡像:
docker images
結果如圖:
【5】Master 主節點初始化:
在初始化之前,我們需要插播一個知識點,那就是 K8S 網絡,先看個圖:
在 K8S 集群中,我們主要會提到 3 個網絡:
1. 節點網絡:很好理解,就是每台機器的真實 IP 地址,比如:192.168.100.101,該 IP 稱作 Node IP。
2. Pod 網絡:K8S 管理的最小單位是 Pod,我們可以把 Pod 就看成一個 docker 容器,這個 IP 就像容器的 IP,稱作 Pod IP。
3. Service 網絡:前兩 IP 都會配置到 Pod 或網卡,但是這個不會,若多個 Pod 組成一個 Service,這個 IP 就像統一入口。至於 Service,之后會詳講。該 IP 稱作 Cluster IP。
當然還有其他網絡,比如 pod 和 pod 之間通信的隧道 Overlay(疊加)網絡。以及 Pod 內部容器間通過 lo 網卡通信的網絡。這些都不需要我們去關注。只需要記住上面的 3 個就行。
為了實現這樣復雜的網絡結構,我們引入了網絡插件,常見的插件有以下幾種:
1. flannel:簡單易用,但不支持網絡策略。通過配置本地網絡協議棧實現給本機 Pod 配置 IP。
2. project calico:支持網絡策略和網絡配置,默認基於 BGP 網絡實現直接通信。
3. canel:flannel 和 calico 結合,flannel 提供網絡,calico 提供策略。
基於上面的知識點,我們再來初始化我們的集群,並定義了兩個服務網段:
# 添加配置 echo 'KUBELET_EXTRA_ARGS="--fail-swap-on=false"' > /etc/sysconfig/kubelet # 初始化主節點 kubeadm init --kubernetes-version=v1.14.2 --pod-network-cidr=10.1.0.0/16 --service-cidr=10.96.0.0/12
結果如圖:
從初始化節點打印的東西我們可以看到:
1. 系統初始化安裝了兩個附件:kube-proxy 和 CoreDNS(就是 kube-dns)。
2. 我們需要手動執行這個 3 個命令才算真正完成主節點初始化。
3. Node 節點加入集群的命令,需要我們記錄下來。
執行后續操作:
mkdir -p $HOME/.kube sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config sudo chown $(id -u):$(id -g) $HOME/.kube/config
查看集群狀態:
kubectl get cs
結果如圖:
查看節點信息:
kubectl get nodes
結果如圖:
此時可以看到,主節點的狀態是 NotReady 的,原因是還沒有配置 flannel。
注意:如果出現錯誤,我們可以通過 /var/log/messages 查看日志。
安裝 flannel 網絡插件,項目地址:
https://github.com/coreos/flannel
執行命令在線安裝:
kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
結果如圖:
此時再度查看節點狀態:
kubectl get nodes
結果如圖,已經變成 Ready 狀態:
查看當前運行的 Pod:
kubectl get pods -n kube-system
結果如圖:
這里專門指定了名稱空間,如果不指定,會發現默認的名稱空間中什么也沒有。可以查看下名稱空間:
kubectl get ns
結果如圖:
至此,主節點配置基本完成,接下來配置 Node 節點!至於這些命令,之后會單獨講解。
【6】Node 節點初始化:
# 添加配置 echo 'KUBELET_EXTRA_ARGS="--fail-swap-on=false"' > /etc/sysconfig/kubelet # 加入集群 kubeadm join 192.168.100.101:6443 --token no4hr8.4xv9xjyt9dxwqinq --discovery-token-ca-cert-hash sha256:239675f2ccb9e700ea1a60b8ff019672ea1a98c1f66ad6a81972cb5ec7d4f381
結果如圖:
去主節點查看結果:容器啟動需要一定的時間(1-2分鍾),所以直接查看可能出現 NotReady 的情況,這是正常的。
主節點上查看運行的詳細信息:
kubectl get pods -n kube-system -o wide
結果如圖:-o wide 查看詳細信息!
可以看到,kube-proxy 和 kube-flannel 在其他節點上都有運行。
這里我們得再強調一件事情,除了開始加入節點的命令我們得去 Node 從節點執行,后續的命令我們都是在 Master 節點完成的,由此可以看出 Master 節點的重要性。
到此,K8S 簡單的集群搭建完成!
小結
整個部署過程中最麻煩的就是鏡像下載以及鏡像版本之間的兼容性。我們推薦使用相對成熟的版本部署我們的應用。因為我這里是測試,所以就選用的最新穩定版。
主要的過程就像這些,看着很復雜,其實大多都說貼命令的過程。后續如果感興趣,其實完全可以寫成腳本,讓他一鍵部署。