點贊再看,養成習慣,微信搜索【牧小農】關注我獲取更多資訊,風里雨里,小農等你,很高興能夠成為你的朋友。
國內安裝K8S的四種途徑
Kubernetes 的安裝其實並不復雜,因為Kubernetes 屬於Google 的產品,都是從Google的官方上進行下載,但是因為網絡問題,在國內是沒辦法連接它的中央倉庫進行下載安裝包的,只能通過其他的途徑進行安裝,在國內有四種安裝方式
- 使用 Kubeadmin 通過離線鏡像安裝: Kubeadmin 是K8S提供的管理控制台,通過這里的命令可以非常方便的對我們集群進行快速發布和部署
- 使用阿里雲公有雲平台安裝K8S: 這是也是非常好用的,不用做任何設置,拿來就用,但是有一個缺點——要錢
- 通過yum官方倉庫安裝: 這個是最簡單的,但是這個安裝K8S的包是非常古老的版本,聽說是和谷歌最新的差了十個版本
- 通過二進制包的形式進行安裝: 采用第三方的提供的二進制包的形式來安裝K8S,比如 Kubeasz,它是github的一個開源項目,因為它是由三方來提供的,如果在沒有仔細驗證的情況下,是非常容易出錯的,后台存在什么樣的缺陷,你是不知道的。
今天我們這里采用的是第一種 使用 Kubeadmin 通過離線鏡像安裝
K8S,本文也會使用 Kubeadmin 來為大家展示K8S的集群部署和安裝,環境和安裝包我都為大家准備好了,大家感興趣的可以進行下載安裝。
關注公眾號:牧小農,回復 k8s ,就可以獲取下載地址了
環境准備
結構圖:
1.1 物理機系統
在這里需要說明一下,小農是本地虛擬機安裝測試的,如果不知道怎么安裝,看下面的我安裝虛擬機的教程:
虛擬機安裝教程:安裝linux虛擬機(CentOS) 詳細教程
安裝K9S需要處理器的數量為2,否則后面初始化的時候會失敗
1,1 物理機操作系統采用Centos7.8 64位
[root@localhost ~]# uname -a
Linux localhost.localdomain 3.10.0-1127.el7.x86_64 #1 SMP Tue Mar 31 23:36:51 UTC 2020 x86_64 x86_64 x86_64 GNU/Linux
[root@localhost ~]# cat /etc/redhat-release
CentOS Linux release 7.8.2003 (Core)
1.2 集群信息
節點及功能 | 主機名 | IP |
---|---|---|
Master、etcd、registry | Master | 192.168.137.129 |
Node1 | Node1 | 192.168.137.130 |
Node2 | Node2 | 192.168.137.131 |
環境准備命令
2.1 設置時區
三台機器都需要執行:timedatectl set-timezone Asia/Shanghai
2.2 設置主機名
129執行: hostnamectl set-hostname master
130執行: hostnamectl set-hostname node1
131執行: hostnamectl set-hostname node2
2.3 添加hosts網絡主機配置
三台主機都需要添加這個配置
vi /etc/hosts
192.168.137.129 master
192.168.137.130 node1
192.168.137.131 node2
添加完成之后我們在master上驗證一下 ping node1
[root@localhost ~]# ping node1
PING node1 (192.168.137.130) 56(84) bytes of data.
64 bytes from node1 (192.168.137.130): icmp_seq=1 ttl=64 time=0.605 ms
64 bytes from node1 (192.168.137.130): icmp_seq=2 ttl=64 time=0.382 ms
64 bytes from node1 (192.168.137.130): icmp_seq=3 ttl=64 time=0.321 ms
2.4 關閉防火牆
生產環境可以跳過這一步,在生產環境不要執行這個,這里只是為了方便我們學習的時候使用
SELINUX是安全增強型的LINUX,是LINUX內置安全增強模塊,可以增強LINUX的安全性,但是這個設置起來太麻煩了,所以我們在學習過程中一般都會關閉掉這個
關閉命令:sed -i 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/selinux/config
設置為臨時生效:setenforce 0
禁用防火牆:systemctl disable firewalld
停止防火牆:systemctl stop firewalld
安裝Kubeadm部署工具
首先我們要弄清楚一個概念,Kubeadm 並不是 K8S 本身,Kubeadm只是一個快速部署工具,通過安裝這個工具可以幫助我們簡化K8S部署的過程。
創建文件目錄: mkdir /usr/local/k8s
切換目錄地址: cd /usr/local/k8s
然后我們將安裝包(kubernetes-1.14 安裝包在開頭有下載連接)放到 k8s 這個目錄下
[root@master k8s]# ll
drwxr-xr-x 2 root root 335 Nov 6 11:17 kubernetes-1.14
切換到kubernetes的目錄
[root@master k8s]# cd kubernetes-1.14/
[root@master kubernetes-1.14]# ll
total 986908
-rw-r--r-- 1 root root 357 Jul 3 14:15 admin-role.yaml
-rw-r--r-- 1 root root 67 Jul 3 14:15 daemon.json
-rw-r--r-- 1 root root 67850818 Jul 3 14:15 docker-ce-18.09.tar.gz
-rw-r--r-- 1 root root 177698304 Jul 3 14:15 flannel-dashboard.tar.gz
-rw-r--r-- 1 root root 927 Jul 3 14:15 init.sh
-rw-r--r-- 1 root root 706070528 Jul 3 14:15 k8s-114-images.tar.gz
-rw-r--r-- 1 root root 79 Jul 3 14:15 k8s.conf
-rw-r--r-- 1 root root 58913350 Jul 3 14:15 kube114-rpm.tar.gz
-rw-r--r-- 1 root root 12306 Jul 3 14:15 kube-flannel.yml
-rw-r--r-- 1 root root 281 Jul 3 14:15 kubernetes-dashboard-admin.rbac.yaml
-rw-r--r-- 1 root root 4809 Jul 3 14:15 kubernetes-dashboard.yaml
-rw-r--r-- 1 root root 953 Jul 3 14:15 worker-node.sh
[root@master kubernetes-1.14]#
這里面就包含了我們安裝K8S的所有內容,其中
kube114-rpm.tar.gz: 是我們Kubeadm 集群管理工具的安裝壓縮包
docker-ce-18.09.tar.gz: 是我們docker的安裝壓縮包,可以進行本地化安裝
k8s-114-images.tar.gz: 是K8S鏡像本身,我們K8S的安裝是 通過 Kubeadm 集群管理工具對K8S的鏡像進行自動化部署
flannel-dashboard.tar.gz: 用來監控集群狀態
安裝docker
我們需要在三台機器上都安裝docker,文中用 master 節點來做演示
首先對 docker-ce-18.09.tar.gz
進行解壓縮
[root@master kubernetes-1.14]# tar -zxvf docker-ce-18.09.tar.gz
[root@master kubernetes-1.14]# cd docker
在安裝之前我們首先需要保證本來的yum源和docker依賴是最新的,所以我們需要先執行以下命令,這一步命令執行都是在 docker
這個目錄下執行的
1、安裝GCC
yum -y install gcc
yum -y install gcc-c++
2、卸載老版本的docker和依賴
yum remove docker docker-client docker-client-latest docker-common docker-latest docker-latest-logrotate docker-logrotate docker-selinux docker-engine-selinux docker-engine
3、安裝 yum-utils組件:yum install -y yum-utils device-mapper-persistent-data lvm2
4、添加yum 源 PS
docker官網地址:
sudo yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo
阿里雲地址:sudo yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
5、更新yum索引:sudo yum makecache fast
6、安裝docker-ce:sudo yum install docker-ce
7、卸載老版本的docker和依賴
這一步不是重復,是為了卸載上一步的 docker-ce
來安裝我們k8s包里面的 docker-ce
yum remove docker docker-client docker-client-latest docker-common docker-latest docker-latest-logrotate docker-logrotate docker-selinux docker-engine-selinux docker-engine
8、執行我們安裝包里面的文件:yum localinstall -y *.rpm
到這里就代表我們的docker安裝完成了
啟動docker: systemctl start docker
設置docker為自動啟動: systemctl enable docker
保證 cgroups 在同一個 groupfs
執行命令:
[root@master docker]# docker info | grep cgroup
Cgroup Driver: cgroupfs
cgroups
是control groups
的簡稱,它為Linux內核提供了一種任務聚集和划分的機制,通過一組參數集合將一些任務組織成一個或多個子系統。cgroups
是實現IaaS虛擬化(kvm、lxc等),PaaS容器沙箱(Docker等)的資源管理控制部分的底層基礎。- 子系統是根據
cgroup
對任務的划分功能將任務按照一種指定的屬性划分成的一個組,主要用來實現資源的控制。 - 在
cgroup
中,划分成的任務組以層次結構的形式組織,多個子系統形成一個數據結構中類似多根樹的結構。cgroup
包含了多個孤立的子系統,每一個子系統代表單一的資源
我們只需要確認輸入上面的命令后出現的是: Cgroup Driver: cgroupfs
就可以了
當我們輸入命令發現不是 Cgroup Driver: cgroupfs
這個結果,那我們需要執行下面的命令:
對 daemon.json 進行修改:
cat << EOF > /etc/docker/daemon.json
{
"exec-opts": ["native.cgroupdriver=cgroupfs"]
}
EOF
systemctl daemon-reload && systemctl restart docker
安裝kubeadm
kubeadm是K8S官方提供的集群部署工具,通過這個工具可以快速幫助我們簡化的完成K8S的管理,以及各集群節點下的容器創建
切換目錄: cd /usr/local/k8s/kubernetes-1.14
解壓 kube114安裝包: tar -zxvf kube114-rpm.tar.gz
切換目錄: cd kube114-rpm
安裝: yum localinstall -y *.rpm
關閉交換區
- 在linux系統中,交換區類似於我們的
windows
的虛擬內存,作為windows
的虛擬內存,其實就是用物理磁盤模擬內存. - 比如說我們系統內存比較小,那么在進行數據處理的時候,內存不夠了,我們就會先把這些數據寄存在硬盤上,用硬盤空間模擬內存來使用,雖然硬盤提取數據的速度比較慢,但是總是比內存不夠要好,在linux系統中,交換區就是我們所說的虛擬內存了.
- 在這里,虛擬內存可能會對系統部署產生不必要的影響,在K8S的環境下,使用的服務器一般都是內存比較充足的,所以我們一般不推薦使用系統交換區,這樣會讓我們系統的性能降低,在這里選擇關閉交換區
關閉交換區:swapoff -a
修改配置文件,永久關閉交換區:vi /etc/fstab
swap一行注釋
配置網橋
所謂配置網橋其實就是我們對k8s.conf
這個文件進行修改
iptables 是在linux中的一個網絡工具,用來對我們包按照規則進行過濾,在k8s.conf
中增加下面兩行配置當在K8S容器間進行網絡通信的時候,當網橋進行數據傳輸的時候,也要遵循iptables的規則,進行相應的處理,這樣可以提高我們系統在網絡傳輸間的安全性
開啟方式:
cat <<EOF > /etc/sysctl.d/k8s.conf
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
sysctl --system
當我們執行完成以后,要確保紅框中的值為1
通過鏡像安裝K8S
切換目錄: cd /usr/local/k8s/kubernetes-1.14
加載本地鏡像—k8s: docker load -i k8s-114-images.tar.gz
加載完成后查看:docker images
[root@master kubernetes-1.14]# docker images
REPOSITORY TAG IMAGE ID CREATED SIZE
k8s.gcr.io/kube-proxy v1.14.1 20a2d7035165 2 years ago 82.1MB
k8s.gcr.io/kube-apiserver v1.14.1 cfaa4ad74c37 2 years ago 210MB
k8s.gcr.io/kube-controller-manager v1.14.1 efb3887b411d 2 years ago 158MB
k8s.gcr.io/kube-scheduler v1.14.1 8931473d5bdb 2 years ago 81.6MB
k8s.gcr.io/coredns 1.3.1 eb516548c180 2 years ago 40.3MB
k8s.gcr.io/etcd 3.3.10 2c4adeb21b4f 2 years ago 258MB
k8s.gcr.io/pause 3.1 da86e6ba6ca1 3 years ago 742kB
如果看過我上一篇K8S入門的同學,應該很熟悉這些東西,這里就不做詳細介紹了,感興趣的可以去看一看
這一篇 K8S(Kubernetes)我覺得可以了解一下!!!
加載本地鏡像—對集群可視化: docker load -i flannel-dashboard.tar.gz
同樣我們也可以使用docker images
進行查看
到這里我們K8S的前置工作已經完成了,但是我們今天安裝的集群環境,所以上面的步驟,在其他兩台機器中也要進行安裝,當我們安裝好了之后,其他的兩台機器使用docker images
,也能 出現上面的信息表示我們安裝完成,這里我們就不做重復的工作了,大家可以自行安裝好
使用Kubeadm部署K8S集群
master 主服務配置
下面的步驟我們都是在 129(master) 這台服務器上執行的,請大家注意!!!
- master主服務器配置:
kubeadm init --kubernetes-version=v1.14.1 --pod-network-cidr=10.244.0.0/16
versioin:版本
cidr:Ip范圍必須在10.244之內
安裝成功之后我們可以看到下面的信息:
第一步:
這三行命令需要我們復制以后手動去運行
mkdir -p $HOME/.kube ## 表示需要我們創建一個.kube目錄
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config ##將admin.conf 復制到config中
sudo chown $(id -u):$(id -g) $HOME/.kube/config ## 進行授權操作
admin.conf 是kubeadm有關於當前集群的核心配置文件,包含了kubeadm集群信息,也包含節點的信息,大家可以看一下
第二步:
這條命令需要我們在節點中(130、131)去運行,讓我們的節點信息加入到master(129)中,我們可以先復制保存一下
kubeadm join 192.168.137.129:6443 --token lg870y.lxik26ib84938ton \
--discovery-token-ca-cert-hash sha256:6d8331fe88ae99e89608d6dc414a9fe0a378b84ffa4044d7cacfdbbf5de41871
通過kubectl獲取節點信息(包含master):kubectl get nodes
name:主機名
STATUS:狀態
ROLES:角色
AGE:創建時間26分鍾
VERSION:版本
從上圖中我們可以看到,節點只有master,沒有Node,是因為當前沒有執行第二步的操作,所以當前沒有節點加入到我們的master中,當時我們看到 status 是 NotReady
,是沒有准備好,這是為什么呢,在底層肯定是有什么組件沒有正常的執行,我們可以通過下面這個命令來查看
查看存在問題的pod:kubectl get pod --all-namespaces
如果我們在狀態(STATUS)中看到
CrashLoopBackOff
一般重新執行幾次kubectl get pod --all-namespaces
命令就會沒有,但是如果一直存在,表示我們硬件不夠,需要增加CPU和內存資源就可以了。
我們可以前兩行的是狀態一直是 Pending
,其他的都是Running
,這是不正常的,那為什么只有前兩個是這樣的,后面的是好的呢,這個問題是必然會出現的。
我們可以看到 name下 有一個 coredns
,它代表的是我們基礎中的網絡應用,這個基礎的網絡應用因為缺少一個額外的組件,所以無法進行安裝,在這里是因為缺少 flannel網絡組件,它是pod的網絡組件,我們只需要通過 kubectl 進行安裝就可以了
安裝flannel網絡組件:kubectl create -f kube-flannel.yml
安裝成功以后我們再使用命令:kubectl get pod --all-namespaces
,就不會出現Pending
的狀態了
並且master也是准備就緒了
node 從服務配置
還記得我們在主服務(master)初始化的時候,復制下來的第二步的命令嗎,我們在node(130、131)節點中只需要執行那條命令就可以了,
PS:這條命令是由我自己的master生成的,大家需要替換成你們自己的那條命令才可以。
如果我們忘記了這條命令,我們可以通過
kubeadm token list
命令去查看,然后將下方的IP地址和token替換一下就可以了,其他不用替換
kubeadm join 192.168.137.129:6443 --token lg870y.lxik26ib84938ton \
--discovery-token-ca-cert-hash sha256:6d8331fe88ae99e89608d6dc414a9fe0a378b84ffa4044d7cacfdbbf5de41871
通過kubectl獲取節點信息(包含master):kubectl get nodes
然后我們就可以看到,兩個節點已經加入進來了
重新啟動服務
重啟docker:systemctl restart docker
重啟kubelet:systemctl restart kubelet
設置開機啟動:systemctl enablekubelet
kubeadm/kubelet/kubectl區別
- kubeadm:是kubernetes集群快速構建工具
- kubelet 運行在所有節點上,負責啟動Pod和容器,以系統服務形式出現
- kubectl:kubectl是kubernetes命令行工具,提供指令
小結
到這里K8S的集群服務就講完了,其實本身安裝K8S並不復雜,但是你架不住里面有許多許多的坑,大家可能看到我安裝的比較順利,但是小農也是躺了很多坑,這篇文章才呈現給大家的,如果覺得文章對你有幫助的,記得點贊關注,你的支持我創作的最大動力。
如果有疑問或者不懂的地方,歡迎在下面留言,小農看到了,會第一時間回復大家。
怕什么真理無窮,進一步 有進一步的歡喜,大家加油~