kubernetes進階(三)服務發現-coredns


服務發現,說白了就是服務(應用)之間相互定位的過程。

服務發現需要解決的問題:

  1、服務動態性強--容器在k8s中ip變化或遷移

  2、更新發布頻繁--版本迭代快

  3、支持自動伸縮--大促或流量高峰

我們為了解決pod地址變化的問題,我們之前部署了service資源,將pod地址通過service資源暴露的固定地址,來解決以上問題,

那么,如何解決service資源名稱和service資源暴露出來的集群網絡IP做自動的對應呢,從而達到服務的自動發現呢?

在k8s中,coredns就是為了解決以上問題。

 

從coredns開始,我們采用向k8s中交付容器的方式,來部署服務,並且使用聲明式的方式,來部署服務。

首先在hdss7-200上創建一個nginx虛擬主機,用來獲取資源配置清單:

vi /etc/nginx/conf.d/k8s-yaml.od.com.conf
server {
    listen       80;
    server_name  k8s-yaml.od.com;

    location / {
        autoindex on;
        default_type text/plain;
        root /data/k8s-yaml;
    }
}
# mkdir -p /data/k8s-yaml/coredns
# nginx -t # nginx -s reload

添加域名解析:hdss-11上

# vi /var/named/od.com.zone
在最后添加一條解析記錄

$ORIGIN od.com.
$TTL 600        ; 10 minutes
@               IN SOA  dns.od.com. dnsadmin.od.com. (
                                2019061803 ; serial
                                10800      ; refresh (3 hours)
                                900        ; retry (15 minutes)
                                604800     ; expire (1 week)
                                86400      ; minimum (1 day)
                                )
                                NS   dns.od.com.
$TTL 60 ; 1 minute
dns                A    10.4.7.11
harbor             A    10.4.7.200
k8s-yaml           A    10.4.7.200
# systemctl restart named

coredns github地址:

 
在hdss7-200上部署coredns:
# cd /data/k8s-yaml/coredns
# docker pull docker.io/coredns/coredns:1.6.1
# docker tag c0f6e815079e harbor.od.com/public/coredns:v1.6.1
# docker push harbor.od.com/public/coredns:v1.6.1

然后編輯資源配置清單:可以從官網上參考資源配置清單

1.rbac.yaml--拿到集群相關權限

# vi rbac.yaml
apiVersion: v1
kind: ServiceAccount
metadata:
  name: coredns
  namespace: kube-system
  labels:
      kubernetes.io/cluster-service: "true"
      addonmanager.kubernetes.io/mode: Reconcile
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
  labels:
    kubernetes.io/bootstrapping: rbac-defaults
    addonmanager.kubernetes.io/mode: Reconcile
  name: system:coredns
rules:
- apiGroups:
  - ""
  resources:
  - endpoints
  - services
  - pods
  - namespaces
  verbs:
  - list
  - watch
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
  annotations:
    rbac.authorization.kubernetes.io/autoupdate: "true"
  labels:
    kubernetes.io/bootstrapping: rbac-defaults
    addonmanager.kubernetes.io/mode: EnsureExists
  name: system:coredns
roleRef:
  apiGroup: rbac.authorization.k8s.io
  kind: ClusterRole
  name: system:coredns
subjects:
- kind: ServiceAccount
  name: coredns
  namespace: kube-system

2.cm.yaml--configmap 對集群的相關配置

# vi cm.yaml
apiVersion: v1
kind: ConfigMap
metadata:
  name: coredns
  namespace: kube-system
data:
  Corefile: |
    .:53 {
        errors
        log
        health
        ready
        kubernetes cluster.local 192.168.0.0/16  #service資源cluster地址
        forward . 10.4.7.11   #上級DNS地址
        cache 30
        loop
        reload
        loadbalance
       }

3.dp.yaml---pod控制器

# vi dp.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
  name: coredns
  namespace: kube-system
  labels:
    k8s-app: coredns
    kubernetes.io/name: "CoreDNS"
spec:
  replicas: 1
  selector:
    matchLabels:
      k8s-app: coredns
  template:
    metadata:
      labels:
        k8s-app: coredns
    spec:
      priorityClassName: system-cluster-critical
      serviceAccountName: coredns
      containers:
      - name: coredns
        image: harbor.od.com/public/coredns:v1.6.1
        args:
        - -conf
        - /etc/coredns/Corefile
        volumeMounts:
        - name: config-volume
          mountPath: /etc/coredns
        ports:
        - containerPort: 53
          name: dns
          protocol: UDP
        - containerPort: 53
          name: dns-tcp
          protocol: TCP
        - containerPort: 9153
          name: metrics
          protocol: TCP
        livenessProbe:
          httpGet:
            path: /health
            port: 8080
            scheme: HTTP
          initialDelaySeconds: 60
          timeoutSeconds: 5
          successThreshold: 1
          failureThreshold: 5
      dnsPolicy: Default
      volumes:
        - name: config-volume
          configMap:
            name: coredns
            items:
            - key: Corefile
              path: Corefile

4.svc.yaml---service資源

# vi svc.yaml
apiVersion: v1
kind: Service
metadata:
  name: coredns
  namespace: kube-system
  labels:
    k8s-app: coredns
    kubernetes.io/cluster-service: "true"
    kubernetes.io/name: "CoreDNS"
spec:
  selector:
    k8s-app: coredns
  clusterIP: 192.168.0.2
  ports:
  - name: dns
    port: 53
    protocol: UDP
  - name: dns-tcp
    port: 53
  - name: metrics
    port: 9153
    protocol: TCP

然后使用http請求資源配置清單yaml的方式來創建資源:在任意node節點上創建

# kubectl create -f http://k8s-yaml.od.com/coredns/rbac.yaml
# kubectl create -f http://k8s-yaml.od.com/coredns/cm.yaml
# kubectl create -f http://k8s-yaml.od.com/coredns/dp.yaml
# kubectl create -f http://k8s-yaml.od.com/coredns/svc.yaml

查看運行情況:

# kubectl get all -n kube-system

 

 查看coredns的cluster ip:

# kubectl get svc -o wide -n kube-system

 

 測試coredns:

# dig -t A www.baidu.com @192.168.0.2 +short

 

 看到已經可以解析到百度。

測試coredns解析service資源名稱,首先查看kube-public下是否有service資源,如果沒有,創建一個,使用kubectl expose nginx-dp --port=80 -n kube-public

# kubectl expose nginx-dp --port=80 -n kube-public

測試:使用coredns測試解析,需要使用SQDN規則

# dig -t A nginx-dp.kube-public.svc.cluster.local. @192.168.0.2 +short

 

可以看到我們沒有手動添加任何解析記錄,我們nginx-dp的service資源的IP,已經被解析了:

 

 那么為什么呢?

推薦大家了解一下coredns都做了什么:Kubernetes內部域名解析原理、弊端及優化方式

大家可以看到,當我進入到pod內部以后,我們會發現我們的dns地址是我們的coredns地址,以及搜索域:

 

 

 
現在,我們已經解決了在集群內部解析的問題,但是我們怎么做到在集群外部訪問我們的服務呢?
接下來我們來學習k8s服務暴露。
 
 
 
 
 
 
 
 
 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM