一、服務器規划及配置
1.1服務器規划:
角色 |
IP |
k8s-master |
192.168.95.129 |
k8s-node1 |
192.168.95.130 |
k8s-node2 |
192.168.95.131 |
1.2服務器配置:
建議最小硬件配置:2核CPU、2G內存、20G硬盤
二、操作系統初始化配置
# 關閉防火牆
systemctl stop firewalld
systemctl disable firewalld
# 關閉selinux
sed -i 's/enforcing/disabled/' /etc/selinux/config # 永久
setenforce 0 # 臨時
# 關閉swap
swapoff -a # 臨時
sed -ri 's/.*swap.*/#&/' /etc/fstab # 永久
# 根據規划設置主機名
hostnamectl set-hostname <hostname>
# 在master添加hosts
cat >> /etc/hosts << EOF
192.168.95.129 k8s-master1
192.168.95.130 k8s-node1
192.168.95.131 k8s-node2
EOF
# 將橋接的IPv4流量傳遞到iptables的鏈
cat > /etc/sysctl.d/k8s.conf << EOF
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
sysctl --system # 生效
三、 安裝Docker/kubeadm/kubelet【所有節點】
這里使用Docker作為容器引擎,也可以換成別的,例如containerd
3.1安裝Docker
wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo
yum -y install docker-ce
systemctl enable docker && systemctl start docker
配置鏡像下載加速器:
cat > /etc/docker/daemon.json << EOF
{
"registry-mirrors": ["https://b9pmyelo.mirror.aliyuncs.com"]
}
EOF
systemctl restart docker
docker info
3.2添加阿里雲YUM軟件源
cat > /etc/yum.repos.d/kubernetes.repo << EOF
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF
3.3安裝kubeadm,kubelet和kubectl
由於版本更新頻繁,這里指定版本號部署:
yum install -y kubelet-1.21.0 kubeadm-1.21.0 kubectl-1.21.0
systemctl enable kubelet
3.4部署Kubernetes Master
在192.168.95.129(Master)執行。
kubeadm init \
--apiserver-advertise-address=192.168.95.129 \
--image-repository registry.aliyuncs.com/google_containers \
--kubernetes-version v1.21.0 \
--service-cidr=10.96.0.0/12 \
--pod-network-cidr=10.244.0.0/16 \
--ignore-preflight-errors=all
--apiserver-advertise-address 集群通告地址
--image-repository 由於默認拉取鏡像地址k8s.gcr.io國內無法訪問,這里指定阿里雲鏡像倉庫地址
--kubernetes-version K8s版本,與上面安裝的一致
--service-cidr 集群內部虛擬網絡,Pod統一訪問入口
--pod-network-cidr Pod網絡,,與下面部署的CNI網絡組件yaml中保持一致
初始化完成后,最后會輸出一個join命令,先記住,下面用。
3.5拷貝kubectl使用的連接k8s認證文件到默認路徑:
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
查看工作節點:
kubectl get nodes
NAME STATUS ROLES AGE VERSION
localhost.localdomain NotReady control-plane,master 20s v1.21.0
注:由於網絡插件還沒有部署,還沒有准備就緒 NotReady
四、加入Kubernetes Node
在192.168.95.130/131(Node)執行。
向集群添加新節點,執行在kubeadm init輸出的kubeadm join命令:
kubeadm join 192.168.95.129:6443 --token 7w0szo.hnolyln5pwbkrkgm \
--discovery-token-ca-cert-hash sha256:f78ecdb44d31655646939a92c18710e4371479676f65e54346d8caab65652470
默認token有效期為24小時,當過期之后,該token就不可用了。這時就需要重新創建token,可以直接使用命令快捷生成:
kubeadm token create --print-join-command
如果提示:
[preflight] Running pre-flight checks
[WARNING IsDockerSystemdCheck]: detected "cgroupfs" as the Docker cgroup driver. The recommended driver is "systemd". Please follow the guide at https://kubernetes.io/docs/setup/cri/
[WARNING Hostname]: hostname "k8s-node1" could not be reached
[WARNING Hostname]: hostname "k8s-node1": lookup k8s-node1 on 192.168.95.2:53: no such host
error execution phase preflight: [preflight] Some fatal errors occurred:
[ERROR FileContent--proc-sys-net-ipv4-ip_forward]: /proc/sys/net/ipv4/ip_forward contents are not set to 1
[preflight] If you know what you are doing, you can make a check non-fatal with `--ignore-preflight-errors=...`
則沒有開啟路由轉發功能
vim /etc/sysctl.conf
net.ipv4.ip_forward=1
sysctl -p
五、部署容器網絡(CNI)
Calico是一個純三層的數據中心網絡方案,是目前Kubernetes主流的網絡方案。
下載YAML:
wget https://docs.projectcalico.org/manifests/calico.yaml(需FQ)
下載完后還需要修改里面定義Pod網絡(CALICO_IPV4POOL_CIDR),與前面kubeadm init的 --pod-network-cidr指定的一樣。
修改完后文件后,部署:
kubectl apply -f calico.yaml
kubectl get pods -n kube-system
等Calico Pod都Running,節點也會准備就緒。
CoreDNS問題處理:
kubectl get pods -n kube-system
NAME READY STATUS RESTARTS AGE
calico-kube-controllers-8db96c76-z7h5p 1/1 Running 0 16m
calico-node-pshdd 1/1 Running 0 16m
calico-node-vjwlg 1/1 Running 0 16m
coredns-545d6fc579-5hd9x 0/1 ImagePullBackOff 0 16m
coredns-545d6fc579-wdbsz 0/1 ImagePullBackOff 0 16m
在所有節點執行:
docker pull registry.aliyuncs.com/google_containers/coredns:1.8.0
docker tag registry.aliyuncs.com/google_containers/coredns:1.8.0 registry.aliyuncs.com/google_containers/coredns/coredns:v1.8.0
過一會兒,CoreDNS Pod會自動恢復正常。
注:以后所有yaml文件都只在Master節點執行。
安裝目錄:/etc/kubernetes/
組件配置文件目錄:/etc/kubernetes/manifests/
六、 測試kubernetes集群
在Kubernetes集群中創建一個pod,驗證是否正常運行:
kubectl create deployment nginx --image=nginx
kubectl expose deployment nginx --port=80 --type=NodePort
kubectl get pod,svc
訪問地址:http://NodeIP:Port
七、部署 Dashboard
Dashboard是官方提供的一個UI,可用於基本管理K8s資源。
wget https://raw.githubusercontent.com/kubernetes/dashboard/v2.0.3/aio/deploy/recommended.yaml
默認Dashboard只能集群內部訪問,修改Service為NodePort類型,暴露到外部:
vi recommended.yaml
...
kind: Service
apiVersion: v1
metadata:
labels:
k8s-app: kubernetes-dashboard
name: kubernetes-dashboard
namespace: kubernetes-dashboard
spec:
ports:
- port: 443
targetPort: 8443
nodePort: 30001
selector:
k8s-app: kubernetes-dashboard
type: NodePort
...
kubectl apply -f recommended.yaml
kubectl get pods -n kubernetes-dashboard
訪問地址:https://NodeIP:30001
創建service account並綁定默認cluster-admin管理員集群角色:
# 創建用戶
kubectl create serviceaccount dashboard-admin -n kube-system
# 用戶授權
kubectl create clusterrolebinding dashboard-admin --clusterrole=cluster-admin --serviceaccount=kube-system:dashboard-admin
# 獲取用戶Token
kubectl describe secrets -n kube-system $(kubectl -n kube-system get secret | awk '/dashboard-admin/{print $1}')
使用輸出的token登錄Dashboard。
成功了呢~嘻嘻~
英雄聯盟最廉價的東西是什么?
是婕拉的花 ?
是俄洛伊的觸手?
是馬爾扎哈的蟲子?
是大頭的炮台 ?
是破碎的秒表?
還是我的愛
嗚嗚嗚