K8S核心插件-coredns服務
1 coredns用途
coredns github地址
coredns都做了什么:Kubernetes內部域名解析原理、弊端及優化方式
coredns在K8S中的用途,主要是用作服務發現,也就是服務(應用)之間相互定位的過程。
1.1 為什么需要服務發現
在K8S集群中,POD有以下特性:
- 服務動態性強
容器在k8s中遷移會導致POD的IP地址變化 - 更新發布頻繁
版本迭代快,新舊POD的IP地址會不同 - 支持自動伸縮
大促或流量高峰需要動態伸縮,IP地址會動態增減
service資源解決POD服務發現:
為了解決pod地址變化的問題,需要部署service資源,用service資源代理后端pod,通過暴露service資源的固定地址(集群IP),來解決以上POD資源變化產生的IP變動問題
那service資源的服務發現呢?
service資源提供了一個不變的集群IP供外部訪問,但
- IP地址畢竟難以記憶
- service資源可能也會被銷毀和創建
- 能不能將service資源名稱和service暴露的集群網絡IP對於
- 類似域名與IP關系,則只需記服務名就能自動匹配服務IP
- 豈不就達到了service服務的自動發現
在k8s中,coredns就是為了解決以上問題。
2 coredns的部署
從coredns開始,我們使用聲明式向k8s中交付容器的方式,來部署服務
2.1 獲取coredns的docker鏡像
以下操作可以在任意節點上完成,推薦在7.200
上做,因為接下來制作coredns的k8s配置清單也是在運維主機7.200
上創建后,再到node節點上應用
docker pull docker.io/coredns/coredns:1.6.1
docker tag coredns:1.6.1 harbor.zq.com/public/coredns:v1.6.1
docker push harbor.zq.com/public/coredns:v1.6.1
2.2 創建coredns的資源配置清單
以下資源配置清單,都是參考官網改出來的
mkdir -p /data/k8s-yaml/coredns
2.2.1 rbac集群權限清單
cat >/data/k8s-yaml/coredns/rbac.yaml <<EOF
apiVersion: v1
kind: ServiceAccount
metadata:
name: coredns
namespace: kube-system
labels:
kubernetes.io/cluster-service: "true"
addonmanager.kubernetes.io/mode: Reconcile
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
labels:
kubernetes.io/bootstrapping: rbac-defaults
addonmanager.kubernetes.io/mode: Reconcile
name: system:coredns
rules:
- apiGroups:
- ""
resources:
- endpoints
- services
- pods
- namespaces
verbs:
- list
- watch
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
annotations:
rbac.authorization.kubernetes.io/autoupdate: "true"
labels:
kubernetes.io/bootstrapping: rbac-defaults
addonmanager.kubernetes.io/mode: EnsureExists
name: system:coredns
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: system:coredns
subjects:
- kind: ServiceAccount
name: coredns
namespace: kube-system
EOF
2.2.2 configmap配置清單
cat >/data/k8s-yaml/coredns/cm.yaml <<EOF
apiVersion: v1
kind: ConfigMap
metadata:
name: coredns
namespace: kube-system
data:
Corefile: |
.:53 {
errors
log
health
ready
kubernetes cluster.local 192.168.0.0/16 #service資源cluster地址
forward . 10.4.7.11 #上級DNS地址
cache 30
loop
reload
loadbalance
}
EOF
2.2.3 depoly控制器清單
cat >/data/k8s-yaml/coredns/dp.yaml <<EOF
apiVersion: apps/v1
kind: Deployment
metadata:
name: coredns
namespace: kube-system
labels:
k8s-app: coredns
kubernetes.io/name: "CoreDNS"
spec:
replicas: 1
selector:
matchLabels:
k8s-app: coredns
template:
metadata:
labels:
k8s-app: coredns
spec:
priorityClassName: system-cluster-critical
serviceAccountName: coredns
containers:
- name: coredns
image: harbor.zq.com/public/coredns:v1.6.1
args:
- -conf
- /etc/coredns/Corefile
volumeMounts:
- name: config-volume
mountPath: /etc/coredns
ports:
- containerPort: 53
name: dns
protocol: UDP
- containerPort: 53
name: dns-tcp
protocol: TCP
- containerPort: 9153
name: metrics
protocol: TCP
livenessProbe:
httpGet:
path: /health
port: 8080
scheme: HTTP
initialDelaySeconds: 60
timeoutSeconds: 5
successThreshold: 1
failureThreshold: 5
dnsPolicy: Default
volumes:
- name: config-volume
configMap:
name: coredns
items:
- key: Corefile
path: Corefile
EOF
2.2.4 service資源清單
cat >/data/k8s-yaml/coredns/svc.yaml <<EOF
apiVersion: v1
kind: Service
metadata:
name: coredns
namespace: kube-system
labels:
k8s-app: coredns
kubernetes.io/cluster-service: "true"
kubernetes.io/name: "CoreDNS"
spec:
selector:
k8s-app: coredns
clusterIP: 192.168.0.2
ports:
- name: dns
port: 53
protocol: UDP
- name: dns-tcp
port: 53
- name: metrics
port: 9153
protocol: TCP
EOF
2.3 創建資源並驗證
在任意NODE節點執行配置都可以,先
2.3.1 驗證服務能夠訪問`
[root@hdss7-21 ~]# dig -t A harbor.zq.com +short
10.4.7.200
2.3.2 創建資源:
kubectl create -f http://k8s-yaml.zq.com/coredns/rbac.yaml
kubectl create -f http://k8s-yaml.zq.com/coredns/cm.yaml
kubectl create -f http://k8s-yaml.zq.com/coredns/dp.yaml
kubectl create -f http://k8s-yaml.zq.com/coredns/svc.yaml
2.3.3. 查看創建情況:
kubectl get all -n kube-system
kubectl get svc -o wide -n kube-system
dig -t A www.baidu.com @192.168.0.2 +short
2.3.4 使用dig測試解析
[root@hdss7-21 ~]# dig -t A www.baidu.com @192.168.0.2 +short
www.a.shifen.com.
39.156.66.18
39.156.66.14
[root@hdss7-21 ~]# dig -t A harbor.zq.com @192.168.0.2 +short
10.4.7.200
coredns已經能解析外網域名了,因為coredns的配置中,寫了他的上級DNS為10.4.7.11
,如果它自己解析不出來域名,會通過遞歸查詢一級級查找
但coredns我們不是用來做外網解析的,而是用來做service名和serviceIP的解析
2.3.5 創建一個service資源來驗證
先查看kube-public
名稱空間有沒有pod
~]# kubectl get pod -n kube-public
No resources found.
# 之前我調試問題已經清理了所有的POD,所以沒有
如果沒有則先創建pod
kubectl create deployment nginx-dp --image=harbor.zq.com/public/nginx:v1.17.9 -n kube-public
~]# kubectl get deployments -n kube-public
NAME READY UP-TO-DATE AVAILABLE AGE
nginx-dp 1/1 1 1 35s
~]# kubectl get pod -n kube-public
NAME READY STATUS RESTARTS AGE
nginx-dp-568f8dc55-rxvx2 1/1 Running 0 56s
給pod創建一個service
kubectl expose deployment nginx-dp --port=80 -n kube-public
~]# kubectl -n kube-public get service
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
nginx-dp ClusterIP 192.168.63.255 <none> 80/TCP 11s
驗證是否可以解析
~]# dig -t A nginx-dp @192.168.0.2 +short
# 發現無返回數據,難道解析不了
# 其實是需要完整域名:服務名.名稱空間.svc.cluster.local.
~]# dig -t A nginx-dp.kube-public.svc.cluster.local. @192.168.0.2 +short
192.168.63.255
可以看到我們沒有手動添加任何解析記錄,我們nginx-dp的service資源的IP,已經被解析了:
進入到pod內部再次驗證
~]# kubectl -n kube-public exec -it nginx-dp-568f8dc55-rxvx2 /bin/bash
-qjwmz:/# apt update && apt install curl
-qjwmz:/# ping nginx-dp
PING nginx-dp.kube-public.svc.cluster.local (192.168.191.232): 56 data bytes
64 bytes from 192.168.191.232: icmp_seq=0 ttl=64 time=0.184 ms
64 bytes from 192.168.191.232: icmp_seq=1 ttl=64 time=0.225 ms
為什么在容器中不用加全域名?
-qjwmz:/# cat /etc/resolv.conf
nameserver 192.168.0.2
search kube-public.svc.cluster.local svc.cluster.local cluster.local host.com
options ndots:5
當我進入到pod內部以后,會發現我們的dns地址是我們的coredns地址,以及搜索域中已經添加了搜索域:
kube-public.svc.cluster.local
我們解決了在集群內部解析的問題,要想在集群外部訪問我們的服務還需要igerss
服務暴露功能
現在,我們已經解決了在集群內部解析的問題,但是我們怎么做到在集群外部訪問我們的服務呢?