k8s集群部署


 

 

1) 部署環境

  • 部署節點 x1 : 運行這份 ansible 腳本的節點
  • etcd節點 x3 : 注意etcd集群必須是1,3,5,7...奇數個節點
  • master節點 x1 : 運行集群主要組件
  • node節點 x3 : 真正應用部署的節點,根據需要增加機器配置和節點數

2)下載docker

wget download.yunwei.edu/shell/docker.tar.gz
ls
tar zxvf docker.tar.gz
ls
cd docker/
ls
bash docker.sh

 

 3)設置免密登陸並且配置號域名解析服務

172.16.254.20 reg.yunwei.edu      #此域名解析是為了獲取docker版ansible的資源地址 192.168.253.9 cicd            #一個部署,三個節點,node1同時又是master節點
192.168.253.14 node1
192.168.253.11 node2
192.168.253.10 node3

 

4)下載並運行docker版ansible

[root@cicd ~]# docker run -itd -v /etc/ansible:/etc/ansible -v /etc/kubernetes/:/etc/kubernetes/ -v /root/.kube:/root/.kube -v /usr/local/bin/:/usr/local/bin/ 1acb4fd5df5b  /bin/sh
WARNING: IPv4 forwarding is disabled. Networking will not work.

上述報錯解決方法:

在下面文件內添加,然后重啟netowrk

  systemctl restart network

[root@cicd ~]# cat /usr/lib/sysctl.d/00-system.conf

  net.ipv4.ip_forward=1

 

5)進入剛剛下載ansible的容器。

[root@cicd ~]# docker exec -it 36aac0dee157 /bin/sh / # ansible all -m ping 
 [WARNING]: Could not match supplied host pattern, ignoring: all

 [WARNING]: provided hosts list is empty, only localhost is available

 [WARNING]: No hosts matched, nothing to do

發現無法ping通,這是因為沒有配置主機組以及取消配置文件中的host-key注釋。

又因為我們宿主機與容器建立了目錄映射,所以我們這里直接在宿主機之下做以下步驟

 

 

6)上傳k8s的壓縮包,然后解壓,進入kubernetes目錄。

wget http://download.yunwei.edu/shell/docker.tar.gz

[root@cicd kubernetes]# ls
bash ca.tar.gz harbor-offline-installer-v1.4.0.tgz image image.tar.gz     k8s197.tar.gz      kube-yunwei-197.tar.gz    scope.yaml sock-shop

 

7)解壓kube-yunwei-197.tar.gz壓縮包,並把解壓后目錄下面的內容全部移動到/etc/ansible/

   解壓k8s197.tar.gz壓縮包,並把解壓后文件全部移動到/etc/ansible/bin/目錄下

[root@cicd ansible]# ls
01.prepare.retry  02.etcd.yml    04.kube-master.yml  06.network.yml  ansible.cfg  example  manifests  tools
01.prepare.yml    03.docker.yml  05.kube-node.yml    99.clean.yml    bin          hosts    roles

   [root@cicd bin]# ls
   bridge cfssljson docker-containerd-ctr docker-proxy flannel kubectl loopback
   calicoctl docker docker-containerd-shim docker-runc host-local kubelet portmap
   cfssl docker-compose dockerd etcd kube-apiserver kube-proxy VERSION.md
   cfssl-certinfo docker-containerd docker-init etcdctl kube-controller-manager kube-scheduler

 

8)在/etc/ansible/目錄下創建一個hosts文件,並將example目錄下的樣本文件復制到此文件中。

[deploy]
192.168.253.9      #部署節點ip

#etcd集群請提供如下NODE_NAME、NODE_IP變量,請注意etcd集群必須是1,3,5,7...奇數個節點
[etcd]
192.168.253.14 NODE_NAME=etcd1 NODE_IP="192.168.253.14"
192.168.253.11 NODE_NAME=etcd2 NODE_IP="192.168.253.11"
192.168.253.10 NODE_NAME=etcd3 NODE_IP="192.168.253.10"

[kube-master]
192.168.253.14 NODE_IP="192.168..253.14"

[kube-node]
192.168.253.14 NODE_IP="192.168.253.14"
192.168.253.11 NODE_IP="192.168.253.11"
192.168.253.10 NODE_IP="192.168.253.10"

[all:vars]
# ---------集群主要參數---------------
#集群部署模式:allinone, single-master, multi-master
DEPLOY_MODE=single-master

#集群 MASTER IP
MASTER_IP="192.168.253.14"

#集群 APISERVER
KUBE_APISERVER="https://192.168.253.14:6443"      #master節點ip

#TLS Bootstrapping 使用的 Token,使用 head -c 16 /dev/urandom | od -An -t x | tr -d ' ' 生成
BOOTSTRAP_TOKEN="d18f94b5fa585c7110f56803d925d2e7"

# 集群網絡插件,目前支持calico和flannel
CLUSTER_NETWORK="calico"

# 部分calico相關配置,更全配置可以去roles/calico/templates/calico.yaml.j2自定義
# 設置 CALICO_IPV4POOL_IPIP=“off”,可以提高網絡性能,條件限制詳見 05.安裝calico網絡組件.md
CALICO_IPV4POOL_IPIP="always"
# 設置 calico-node使用的host IP,bgp鄰居通過該地址建立,可手動指定端口"interface=eth0"或使用如下自動發現
IP_AUTODETECTION_METHOD="can-reach=113.5.5.5"

# 部分flannel配置,詳見roles/flannel/templates/kube-flannel.yaml.j2
FLANNEL_BACKEND="vxlan"

# 服務網段 (Service CIDR),部署前路由不可達,部署后集群內使用 IP:Port 可達
SERVICE_CIDR="10.68.0.0/16"

# POD 網段 (Cluster CIDR),部署前路由不可達,**部署后**路由可達
CLUSTER_CIDR="172.20.0.0/16"

# 服務端口范圍 (NodePort Range)
NODE_PORT_RANGE="20000-40000"

# kubernetes 服務 IP (預分配,一般是 SERVICE_CIDR 中第一個IP)
CLUSTER_KUBERNETES_SVC_IP="10.68.0.1"

# 集群 DNS 服務 IP (從 SERVICE_CIDR 中預分配)
CLUSTER_DNS_SVC_IP="10.68.0.2"

# 集群 DNS 域名
CLUSTER_DNS_DOMAIN="cluster.local."

# etcd 集群間通信的IP和端口, **根據實際 etcd 集群成員設置**
ETCD_NODES="etcd1=https://192.168.253.14:2380,etcd2=https://192.168.253.11:2380,etcd3=https://192.168.253.10:2380"

# etcd 集群服務地址列表, **根據實際 etcd 集群成員設置**
ETCD_ENDPOINTS="https://192.168.253.14:2379,https://192.168.253.11:2379,https://192.168.253.10:2379"

# 集群basic auth 使用的用戶名和密碼
BASIC_AUTH_USER="admin"
BASIC_AUTH_PASS="admin"

# ---------附加參數--------------------
#默認二進制文件目錄
bin_dir="/usr/local/bin"      # /root改為/usr

#證書目錄
ca_dir="/etc/kubernetes/ssl"

#部署目錄,即 ansible 工作目錄
base_dir="/etc/ansible"

 

9)關閉防火牆,重啟docker

再次進入容器,cd到/etc/ansible查看

出現6個腳本文件以及其他若干個文件

[root@cicd ansible]# docker exec -it ad5e6744151e /bin/sh
/ # cd /etc/ansible/
/etc/ansible # ls
01.prepare.retry    05.kube-node.yml    example
01.prepare.yml      06.network.yml      hosts
02.etcd.yml         99.clean.yml        manifests
03.docker.yml       ansible.cfg         roles
04.kube-master.yml  bin                 tools

 

10)在容器內執行01-05腳本

/etc/ansible # ansible-playbook 01.prepare.yml 
/etc/ansible # ansible-playbook 02.etcd.yml
/etc/ansible # ansible-playbook 03.docker.yml
/etc/ansible # ansible-playbook 04.kube-master.yml
/etc/ansible # ansible-playbook 05.kube-node.yml

 

11) 部署節點另開一個會話。其他三個節點創建一個名為image的目錄用於接收部署節點發送的鏡像包。

  執行以下命令,然后將image目錄下的所有鏡像全部發送給node1.node2.node3。

[root@cicd ~]# cd kubernetes
[root@cicd kubernetes]# ls
bash  ca.tar.gz  harbor-offline-installer-v1.4.0.tgz  image  image.tar.gz  k8s197.tar.gz  kube-yunwei-197.tar.gz  scope.yaml  sock-shop
[root@cicd kubernetes]# cd image
[root@cicd image]# ls
bash-completion-2.1-6.el7.noarch.rpm  coredns-1.0.6.tar.gz  heapster-v1.5.1.tar  kubernetes-dashboard-amd64-v1.8.3.tar.gz
calico                                grafana-v4.4.3.tar    influxdb-v1.3.3.tar  pause-amd64-3.1.tar

 

12)node1節點進入到image目錄,導入所有鏡像

[root@node2 ~]# cd image/
[root@node2 image]# ls
bash-completion-2.1-6.el7.noarch.rpm  grafana-v4.4.3.tar
calico-cni-v2.0.5.tar                 heapster-v1.5.1.tar
calico-kube-controllers-v2.0.4.tar    influxdb-v1.3.3.tar
calico-node-v3.0.6.tar                kubernetes-dashboard-amd64-v1.8.3.tar.gz
coredns-1.0.6.tar.gz                  pause-amd64-3.1.tar
[root@node2 image]# for ls in `ls` ;do docker load -i $ls ;done

 

13)查看鏡像是否導入成功

[root@node2 image]# docker images
REPOSITORY                                          TAG                 IMAGE ID            CREATED             SIZE
mariadb                                             latest              3ab4bbd66f97        8 hours ago         344MB
zabbix/zabbix-agent                                 latest              bc21cdfcc381        6 days ago          14.9MB
calico/node                                         v3.0.6              15f002a49ae8        14 months ago       248MB
calico/kube-controllers                             v2.0.4              f8e683e673ec        14 months ago       55.1MB
calico/cni                                          v2.0.5              b5e5532af766        14 months ago       69.1MB
coredns/coredns                                     1.0.6               d4b7466213fe        16 months ago       39.9MB
mirrorgooglecontainers/kubernetes-dashboard-amd64   v1.8.3              0c60bcf89900        16 months ago       102MB
mirrorgooglecontainers/heapster-amd64               v1.5.1              c41e77c31c91        16 months ago       75.3MB
mirrorgooglecontainers/pause-amd64                  3.1                 da86e6ba6ca1        18 months ago       742kB
mirrorgooglecontainers/heapster-influxdb-amd64      v1.3.3              577260d221db        21 months ago       12.5MB
mirrorgooglecontainers/heapster-grafana-amd64       v4.4.3              8cb3de219af7        21 months ago       152MB

其他兩個節點操作相同。

 

14)在部署節點的容器內執行06腳本

/etc/ansible # ansible-playbook 06.network.yml 

 

15)進入manifests/coredns/目錄下,執行

  kubeclt  create  -f  .

/etc/ansible # cd manifests/
/etc/ansible/manifests # ls
coredns    dashboard  efk        heapster   ingress    kubedns
/etc/ansible/manifests # cd coredns/
/etc/ansible/manifests/coredns # ls
coredns.yaml
/etc/ansible/manifests/coredns # kubectl create -f .
serviceaccount "coredns" created
clusterrole "system:coredns" created
clusterrolebinding "system:coredns" created
configmap "coredns" created
deployment "coredns" created
service "coredns" created

 

16)部署節點的宿主機界面執行:

 kubectl get node -o wide
[root@cicd image]# kubectl get node -o wide
NAME             STATUS                     ROLES     AGE       VERSION   EXTERNAL-IP   OS-IMAGE                KERNEL-VERSION          CONTAINER-RUNTIME
192.168.253.10   Ready                      <none>    10m       v1.9.7    <none>        CentOS Linux 7 (Core)   3.10.0-693.el7.x86_64   docker://18.3.0
192.168.253.11   Ready                      <none>    10m       v1.9.7    <none>        CentOS Linux 7 (Core)   3.10.0-693.el7.x86_64   docker://18.3.0
192.168.253.14   Ready,SchedulingDisabled   <none>    12m       v1.9.7    <none>        CentOS Linux 7 (Core)   3.10.0-693.el7.x86_64   docker://18.3.0

 

17)查看名稱空間

  查看kube-system空間內的pod詳情

[root@cicd image]# kubectl get ns
NAME          STATUS    AGE
default       Active    14m
kube-public   Active    14m
kube-system   Active    14m
[root@cicd image]# kubectl get pod -n kube-system -o wide
NAME                                       READY     STATUS    RESTARTS   AGE       IP               NODE
calico-kube-controllers-754c88ccc8-86rht   1/1       Running   0          4m        192.168.253.11   192.168.253.11
calico-node-cvhcn                          2/2       Running   0          4m        192.168.253.10   192.168.253.10
calico-node-j5d66                          2/2       Running   0          4m        192.168.253.14   192.168.253.14
calico-node-qfm66                          2/2       Running   0          4m        192.168.253.11   192.168.253.11 coredns-6ff7588dc6-mbg9x                   1/1       Running   0          2m        172.20.104.1     192.168.253.11 coredns-6ff7588dc6-vzvbt                   1/1       Running   0          2m        172.20.135.1     192.168.253.10

 

18)在不同節點上嘗試ping通彼此節點的內部ip

[root@node1 image]# ping 172.20.135.1
PING 172.20.135.2 (172.20.135.2) 56(84) bytes of data.
64 bytes from 172.20.135.2: icmp_seq=1 ttl=63 time=0.813 ms
64 bytes from 172.20.135.2: icmp_seq=2 ttl=63 time=0.696 ms

如果ping通則證明k8s實驗部署成功。

 

19)cd到dashboard目錄下執行

kubectl create -f .
/etc/ansible/manifests # cd dashboard/
/etc/ansible/manifests/dashboard # ls
1.6.3                      kubernetes-dashboard.yaml  ui-read-rbac.yaml
admin-user-sa-rbac.yaml    ui-admin-rbac.yaml
/etc/ansible/manifests/dashboard # kubectl create -f .
serviceaccount "admin-user" created
clusterrolebinding "admin-user" created
secret "kubernetes-dashboard-certs" created
serviceaccount "kubernetes-dashboard" created
role "kubernetes-dashboard-minimal" created
rolebinding "kubernetes-dashboard-minimal" created
deployment "kubernetes-dashboard" created
service "kubernetes-dashboard" created
clusterrole "ui-admin" created
rolebinding "ui-admin-binding" created
clusterrole "ui-read" created
rolebinding "ui-read-binding" created

 

20)再次執行

kubectl get pod -n kube-system -o wide

發現多出一個容器
[root@cicd image]# kubectl get pod -n kube-system -o wide
NAME                                       READY     STATUS    RESTARTS   AGE       IP               NODE
calico-kube-controllers-754c88ccc8-86rht   1/1       Running   0          7m        192.168.253.11   192.168.253.11
calico-node-cvhcn                          2/2       Running   0          7m        192.168.253.10   192.168.253.10
calico-node-j5d66                          2/2       Running   0          7m        192.168.253.14   192.168.253.14
calico-node-qfm66                          2/2       Running   0          7m        192.168.253.11   192.168.253.11
coredns-6ff7588dc6-mbg9x                   1/1       Running   0          5m        172.20.104.1     192.168.253.11
coredns-6ff7588dc6-vzvbt                   1/1       Running   0          5m        172.20.135.1     192.168.253.10 kubernetes-dashboard-545b66db97-cbh9w      1/1       Running   0          1m        172.20.135.2     192.168.253.10

在node1節點ping172.168.135.2

[root@node1 image]# ping 172.20.135.2
PING 172.20.135.2 (172.20.135.2) 56(84) bytes of data.
64 bytes from 172.20.135.2: icmp_seq=1 ttl=63 time=0.813 ms
64 bytes from 172.20.135.2: icmp_seq=2 ttl=63 time=0.696 ms

 

如果能夠ping通,執行以下命令

/etc/ansible/manifests/dashboard # kubectl cluster-info
Kubernetes master is running at https://192.168.253.14:6443
CoreDNS is running at https://192.168.253.14:6443/api/v1/namespaces/kube-system/services/coredns:dns/proxy
kubernetes-dashboard is running at https://192.168.253.14:6443/api/v1/namespaces/kube-system/services/https:kubernetes-dashboard:/proxy

 

21)復制加粗連接訪問網頁

登陸用戶名和密碼后,選中令牌,執行以下命令

[root@cicd image]# kubectl -n kube-system describe secret $(kubectl -n kube-system get secret|grep admin-user|awk '{print $1}')
Name:         admin-user-token-q46rv
Namespace:    kube-system
Labels:       <none>
Annotations:  kubernetes.io/service-account.name=admin-user
              kubernetes.io/service-account.uid=b31a5f5c-9283-11e9-a6e3-000c2966ee14

Type:  kubernetes.io/service-account-token

Data
====
ca.crt:     1359 bytes
namespace:  11 bytes
token:      eyJhbGciOiJSUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJrdWJlcm5ldGVzL3NlcnZpY2VhY2NvdW50Iiwia3ViZXJuZXRlcy5pby9zZXJ2aWNlYWNjb3VudC9uYW1lc3BhY2UiOiJrdWJlLXN5c3RlbSIsImt1YmVybmV0ZXMuaW8vc2VydmljZWFjY291bnQvc2VjcmV0Lm5hbWUiOiJhZG1pbi11c2VyLXRva2VuLXE0NnJ2Iiwia3ViZXJuZXRlcy5pby9zZXJ2aWNlYWNjb3VudC9zZXJ2aWNlLWFjY291bnQubmFtZSI6ImFkbWluLXVzZXIiLCJrdWJlcm5ldGVzLmlvL3NlcnZpY2VhY2NvdW50L3NlcnZpY2UtYWNjb3VudC51aWQiOiJiMzFhNWY1Yy05MjgzLTExZTktYTZlMy0wMDBjMjk2NmVlMTQiLCJzdWIiOiJzeXN0ZW06c2VydmljZWFjY291bnQ6a3ViZS1zeXN0ZW06YWRtaW4tdXNlciJ9.O5gqGeUNlwUYYDSL2bSolvCUoGmWjipaiqwrfBCbCroQ2SanUdP0w3SbJ0Vhb1Ddv6QswC2HeaGeHV_ideoH03RalKlJoJmCIaz0OpbvWQ6KaeDKLHqBxGyT4S-AHncF908aHr84JfY6GVIfJJL7P68EzMrFpOI24YC_PDfZvBm7zud7uhiFClWs8MMMmSt0YAWoakVQ4sPfyhlBX9rZLE1-2LobMio6g0vue9PJxzmJhZ7GrcOqHu__IpbmtPpwj-VHnvhDkU8dhC8617HyVU7xDsajZ89HmqSIVFtXrpiDTChDwBfMlx7QRmzu7bNNXyesQqDoyBJJgReW3M0evw

 

復制以上令牌內容到空格中,點擊進入以下頁面代表成功。

 

一、 Kubernetes  介紹:
 
 
kubernetes起源

 

Kubernetes (K8s) 是 Google 在 2014 年發布的一個開源項目。
據說 Google 的數據中心里運行着超過 20 億個容器,而且 Google 十年前就開始使用容器技術。 最初,Google 開發了一個叫 Borg 的系統(現在命令為 Omega)來調度如此龐大數量的容器和工作負載。在積累了這么多年的經驗后,Google 決定重寫這個容器管理系統,並將其貢獻到開源社區,讓全世界都能受益。
這個項目就是 Kubernetes。簡單的講,Kubernetes 是 Google Omega 的開源版本。
從 2014 年第一個版本發布以來,Kubernetes 迅速獲得開源社區的追捧,包括 Red Hat、VMware、Canonical 在內的很多有影響力的公司加入到開發和推廣的陣營。目前 Kubernetes 已經成為發展最快、市場占有率最高的容器編排引擎產品。 Kubernetes 一直在快速地開發和迭代。
 
Kubernetes 的幾個重要概念
在實踐之前,必須先學習 Kubernetes 的幾個重要概念,它們是組成 Kubernetes 集群的基石。
Cluster 
Cluster 是計算、存儲和網絡資源的集合,Kubernetes 利用這些資源運行各種基於容器的應用。
Master 
Master 是 Cluster 的大腦,它的主要職責是調度,即決定將應用放在哪里運行。Master 運行 Linux 操作系統,可以是物理機或者虛擬機。為了實現高可用,可以運行多個 Master。
Node 
Node 的職責是運行容器應用。Node 由 Master 管理,Node 負責監控並匯報容器的狀態,並根據 Master 的要求管理容器的生命周期。Node 運行在 Linux 操作系統,可以是物理機或者是虛擬機。
Pod 
Pod 是 Kubernetes 的最小工作單元。每個 Pod 包含一個或多個容器。Pod 中的容器會作為一個整體被 Master 調度到一個 Node 上運行。
Kubernetes 引入 Pod 主要基於下面兩個目的:
  1. 可管理性。
    有些容器天生就是需要緊密聯系,一起工作。Pod 提供了比容器更高層次的抽象,將它們封裝到一個部署單元中。Kubernetes 以 Pod 為最小單位進行調度、擴展、共享資源、管理生命周期。
  2. 通信和資源共享。
    Pod 中的所有容器使用同一個網絡 namespace,即相同的 IP 地址和 Port 空間。它們可以直接用 localhost 通信。同樣的,這些容器可以共享存儲,當 Kubernetes 掛載 volume 到 Pod,本質上是將 volume 掛載到 Pod 中的每一個容器。
Pods 有兩種使用方式:
  1. 運行單一容器。
    one-container-per-Pod  是 Kubernetes 最常見的模型,這種情況下,只是將單個容器簡單封裝成 Pod。即便是只有一個容器,Kubernetes 管理的也是 Pod 而不是直接管理容器。
  2. 運行多個容器。
    但問題在於: 哪些容器應該放到一個 Pod 中?  
    答案是:這些容器聯系必須  非常緊密 ,而且需要  直接共享資源
舉個例子。
下面這個 Pod 包含兩個容器:一個 File Puller,一個是 Web Server。
 
File Puller 會定期從外部的 Content Manager 中拉取最新的文件,將其存放在共享的 volume 中。Web Server 從 volume 讀取文件,響應 Consumer 的請求。
這兩個容器是緊密協作的,它們一起為 Consumer 提供最新的數據;同時它們也通過 volume 共享數據。所以放到一個 Pod 是合適的。
再來看一個反例:是否需要將 Tomcat 和 MySQL 放到一個 Pod 中?
Tomcat 從 MySQL 讀取數據,它們之間需要協作,但還不至於需要放到一個 Pod 中一起部署,一起啟動,一起停止。同時它們是之間通過 JDBC 交換數據,並不是直接共享存儲,所以放到各自的 Pod 中更合適。
Controller 
Kubernetes 通常不會直接創建 Pod,而是通過 Controller 來管理 Pod 的。Controller 中定義了 Pod 的部署特性,比如有幾個副本,在什么樣的 Node 上運行等。為了滿足不同的業務場景,Kubernetes 提供了多種 Controller,包括 Deployment、ReplicaSet、DaemonSet、StatefuleSet、Job 等,我們逐一討論。
Deployment 是最常用的 Controller,比如前面在線教程中就是通過創建 Deployment 來部署應用的。Deployment 可以管理 Pod 的多個副本,並確保 Pod 按照期望的狀態運行。
ReplicaSet 實現了 Pod 的多副本管理。使用 Deployment 時會自動創建 ReplicaSet,也就是說 Deployment 是通過 ReplicaSet 來管理 Pod 的多個副本,我們通常不需要直接使用 ReplicaSet。
DaemonSet 用於每個 Node 最多只運行一個 Pod 副本的場景。正如其名稱所揭示的,DaemonSet 通常用於運行 daemon。
StatefuleSet 能夠保證 Pod 的每個副本在整個生命周期中名稱是不變的。而其他 Controller 不提供這個功能,當某個 Pod 發生故障需要刪除並重新啟動時,Pod 的名稱會發生變化。同時 StatefuleSet 會保證副本按照固定的順序啟動、更新或者刪除。
Job 用於運行結束就刪除的應用。而其他 Controller 中的 Pod 通常是長期持續運行。
Service 
Deployment 可以部署多個副本,每個 Pod 都有自己的 IP,外界如何訪問這些副本呢?
通過 Pod 的 IP 嗎?
要知道 Pod 很可能會被頻繁地銷毀和重啟,它們的 IP 會發生變化,用 IP 來訪問不太現實。
答案是 Service。
Kubernetes Service 定義了外界訪問一組特定 Pod 的方式。Service 有自己的 IP 和端口,Service 為 Pod 提供了負載均衡。
Kubernetes 運行容器(Pod)與訪問容器(Pod)這兩項任務分別由 Controller 和 Service 執行。
Namespace
如果有多個用戶或項目組使用同一個 Kubernetes Cluster,如何將他們創建的 Controller、Pod 等資源分開呢?
答案就是 Namespace。
Namespace 可以將一個物理的 Cluster 邏輯上划分成多個虛擬 Cluster,每個 Cluster 就是一個 Namespace。不同 Namespace 里的資源是完全隔離的。
Kubernetes 默認創建了三個 Namespace。 default  -- 創建資源時如果不指定,將被放到這個 Namespace 中。 kube-system  -- Kubernetes 自己創建的系統資源將放到這個 Namespace 中。 kube-public -- Kubernetes 公共的系統資源將放到這個 Namespace 中。
 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM