CentOS7安裝k8s


借鑒博客:https://www.cnblogs.com/xkops/p/6169034.html

此博客里面有每個k8s配置文件的注釋:https://blog.csdn.net/qq_35904833/article/details/78190257
下面寫一寫我自己的安裝流程:

  一、安裝准備:
      准備兩台服務器(我用的是CentOS7系統):192.168.26.227,192.168.26.228

      一主一從:

        master機:192.168.26.227

        node機:192.168.26.228

      簡單說一下k8s:

        k8s是個什么玩意?
          可以這樣去理解:k8s全稱:Kubernetes,它可以看作是一個分布式系統支撐平台。          

        我們為什么要用k8s集群?
          故障自愈:

            k8s這個玩意可以監控容器運行,我們把項目放到容器里。由於一些外部內部原因服務器承受不住壓力,如果主節點上的容器突然掛了,k8s立刻會自己將主機上的服務調度到另一個node機器上運行

          應用更新:

            更新項目上線時不用中斷當前項目的運行。

          還有一些自動擴容,縮容的概念就不講了,我本人也沒親身體會用過,不好說。

      k8s的全生命周期管理:
      在k8s進行管理應用的時候,基本步驟是:創建集群,部署應用,發布應用,擴展應用,更新應用。

      k8s的主要組件,以及它們主要是用來干什么的:
          etcd:一款開源軟件。提供可靠的分布式數據存儲服務,用於持久化存儲K8s集群的配置和狀態

          apiservice:用戶程序(如kubectl)、K8s其它組件之間通信的接口。K8s其它組件之間不直接通信,而是通過API server通信的。這一點在上圖的連接中可以體現,例如,只有API server連接了etcd,即其它組件更新K8s集群的狀態時,只能通過API server讀寫etcd中的數據。

          Scheduler:排程組件,為用戶應用的每一可部署組件分配工作結點。

          controller-manager:執行集群級別的功能,如復制組件、追蹤工作結點狀態、處理結點失敗等。Controller Manager組件是由多個控制器組成的,其中很多控制器是按K8s的資源類型划分的,如Replication Manager(管理ReplicationController 資源),ReplicaSet Controller,PersistentVolume controller。

          kube-proxy:在應用組件間負載均衡網絡流量。

          kubelet:管理工作結點上的容器。

          Contriner runtime Docker, rkt等實際運行容器的組件

      

    上面都是些k8s集群所要用到的組件,具體這些組件都是用來干嘛的呢,我們來好好分析分析。

      master主機上192.168.26.277必須要有的組件:

          etcd  :提供分布式數據存儲的數據庫吧,用於持久化存儲k8s集群的配置和狀態

          kube-apiserver:api service提供了http rest接口,是整個集群的入口,K8s其它組件之間不直接通信,而是通過API server通信的。(只有API server連接了etcd,即其它組件更新K8s集群的狀態時,只能通過API server讀寫etcd中的數據)

          kube-scheduler:scheduler負責資源的調度

          kube-controller-manager:整個集群的管理控制中心,此組件里面是由多個控制器組成的,如:Replication Manager(管理ReplicationController 資源),ReplicaSet Controller,PersistentVolume controller。主要作用用來復制組件、追蹤工作結點狀態、處理失敗結點

      node節點機上192.168.26.228必須要有的組件:

          flannel:好像是用來支持網絡通信的吧

          kube-proxy:用來負載均衡網絡流量

          kubelet:用來管理node節點機上的容器

          docker:運行項目鏡像容器的組件

      2018年11月30日:

        今天又看了一些博客,多了一些認識和理解,如下:

        k8s的整個集群運行原理:【重點核心知識很重要】
          master主機上的kube-controller-manager是整個集群的控制管理中心,kube-controler-manager中的node controller模塊 通過apiservice提供的監聽接口,實時監控node機的狀態信息。

當某個node機器宕機,controller-manager就會及時排除故障並自動修復。

          node節點機上的kubelet進程每隔一段時間周期就會調用一次apiservice接口報告自身狀態,apiservice接口接受到這些信息后將節點狀態更新到ectd中。kubelet也通過apiservice的監聽接口監聽pod信息,如果監控到新的pod副本被調度綁定到本節點,則執行pod對應的容器的創建和啟動,如果監聽到pod對象被刪除,則刪除本節點對應的pod容器。(目前對pod、容器、鏡像這些概念還不是很清晰,無法在大腦中構建這都是些什么玩意,先做個筆記記着吧)

        剛才在別人博客上看到一個圖很有意思,我們總監叫我學了ELK日志系統,jenkins自動構建工具,最近在搞k8s,還差消息中間件沒學,然后就看到了這個圖,頓時整個公司要搭建的分布式服務器環境一目了然,由於我不是架構師並不知道公司整個服務器分布式系統是怎樣的,現在才恍然大悟,原來如此,原來如此,原來如此呀。

        原圖:
              原圖的博客地址:https://blog.csdn.net/zyc88888/article/details/79281954

        我做了筆記的圖:

》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》

下面廢話不多說,來進行安裝步驟:

  二、k8s安裝步驟:
        1、所有機器上執行以下命令,准備安裝環境:(注意是所有機器,主機master,從機node都要安裝)

          1.1、安裝epel-release源

yum -y install epel-release

          1.2、所有機器關閉防火牆

復制代碼
systemctl stop firewalld

systemctl disable firewalld

setenforce 0

查看防火牆狀態

firewall-cmd --state

復制代碼

      2、現在開始master主機上192.168.26.227安裝kubernetes Master

        2.1、使用yum安裝etcd、kubernetes-master

yum -y install etcd kubernetes-master
        

        2.2、編輯:vi /etc/etcd/etcd.conf文件,修改結果如下:

        2.3、配置:vi /etc/kubernetes/apiserver文件,配置結果如下:

        2.4、啟動etcd、kube-apiserver、kube-controller-manager、kube-scheduler等服務,並設置開機啟動。

for SERVICES in etcd kube-apiserver kube-controller-manager kube-scheduler; do systemctl restart $SERVICES;systemctl enable $SERVICES;systemctl status $SERVICES ; done
      

        2.5、在etcd中定義flannel網絡

etcdctl mk /atomic.io/network/config '{"Network":"172.17.0.0/16"}'

》》》》》》》》以上master主機上的配置安裝什么的都弄完了》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》

      3、接下來弄node從機上的配置安裝什么的
          3.1、在node機上192.168.26.228安裝kubernetes Node和flannel組件應用

yum -y install flannel kubernetes-node

          3.2、為flannel網絡指定etcd服務,修改/etc/sysconfig/flanneld文件,配置結果如下圖:

        3.3、修改:vi /etc/kubernetes/config文件,配置結果如下圖:

        3.4、修改node機的kubelet配置文件/etc/kubernetes/kubelet

        3.5、node節點機上啟動kube-proxy,kubelet,docker,flanneld等服務,並設置開機啟動。

for SERVICES in kube-proxy kubelet docker flanneld;do systemctl restart $SERVICES;systemctl enable $SERVICES;systemctl status $SERVICES; done

      

》》》》》》以上所有master主機,node節點機上的配置就完成了,接下來看看k8s集群是否搭建起來了》》》》》》》》》》》》》》》》》》》
    

      在master主機上192.168.26.227執行如下命令,查看運行的node節點機器:

kubectl get nodes

      成功啦啦啦啦,結果圖如下:


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM