k8s發布go應用
前言
搭建了一套K8s,嘗試發布一個go應用
部署
鏡像打包
之前已經打包過一個go的鏡像了,這次就直接跳過了,打包記錄https://www.cnblogs.com/ricklz/p/12860434.html
編寫yaml文件
apiVersion: apps/v1
kind: Deployment
metadata:
name: go-app
spec:
replicas: 2
selector:
matchLabels:
app: go-app
template:
metadata:
labels:
app: go-app
spec:
containers:
- name: go-app-container
image: liz2019/test-docker-go-hub
resources:
limits:
memory: "128Mi"
cpu: "500m"
ports:
- containerPort: 8000
啟動
$ kubectl apply -f kube-go.yaml
NAME READY STATUS RESTARTS AGE
go-app-6498bff568-8n72g 0/1 ContainerCreating 0 62s
go-app-6498bff568-ncrmf 0/1 ContainerCreating 0 62s
暴露應用
$ kubectl expose deployment go-app --type=NodePort --name=go-app-svc --target-port=8000
查看
$ kubectl get pods -o wide|grep go-app
go-app-58c4ff7448-j9j6m 1/1 Running 0 106s 172.17.32.5 192.168.56.202 <none> <none>
go-app-58c4ff7448-p7xnj 1/1 Running 0 106s 172.17.65.4 192.168.56.203 <none> <none>
$ kubectl get svc|grep go-app
go-app-svc NodePort 10.0.0.16 <none> 8000:45366/TCP 43m
通過nodeIP加端口可以直接訪問
使用ingress
什么是ingress呢
k8s 的服務(service)時說暴露了service的三種方式ClusterIP、NodePort與LoadBalance,這幾種方式都是在service的維度提供的,service的作用體現在兩個方面,對集群內部,它不斷跟蹤pod的變化,更新endpoint中對應pod的對象,提供了ip不斷變化的pod的服務發現機制,對集群外部,他類似負載均衡器,可以在集群內外部對pod進行訪問。但是,單獨用service暴露服務的方式,在實際生產環境中不太合適:
- ClusterIP的方式只能在集群內部訪問。
- NodePort方式的話,測試環境使用還行,當有幾十上百的服務在集群中運行時,NodePort的端口管理是災難。
- LoadBalance方式受限於雲平台,且通常在雲平台部署ELB還需要額外的費用。
ingress可以簡單理解為service的service,他通過獨立的ingress對象來制定請求轉發的規則,把請求路由到一個或多個service中。這樣就把服務與請求規則解耦了,可以從業務維度統一考慮業務的暴露,而不用為每個service單獨考慮。
ingress根據不同的請求規則,會把請求發送到不同的service。
ingress與ingress-controller
- ingress對象:
指的是k8s中的一個api對象,一般用yaml配置。作用是定義請求如何轉發到service的規則,可以理解為配置模板。
- ingress-controller:
具體實現反向代理及負載均衡的程序,對ingress定義的規則進行解析,根據配置的規則來實現請求轉發。
簡單來說,ingress-controller才是負責具體轉發的組件,通過各種方式將它暴露在集群入口,外部對集群的請求流量會先到ingress-controller,而ingress對象是用來告訴ingress-controller該如何轉發請求,比如哪些域名哪些path要轉發到哪些服務等等。
在Kubernetes中,Ingress Controller將以Pod的形式運行,監控API Server的/ingr ess接口后端的backend services,如果Service發生變化,則Ingress Controller應自動 更新其轉發規則。
ingress
ingress的部署,需要考慮兩個方面:
1、ingress-controller是作為pod來運行的,以什么方式部署比較好
2、ingress解決了把如何請求路由到集群內部,那它自己怎么暴露給外部比較好
到目前為止,kubernetes主要有有三種暴露服務的方式
LoadBlancer Service
如果要把ingress部署在公有雲,那用這種方式比較合適。用Deployment部署ingress-controller,創建一個type為LoadBalancer的service關聯這組pod。大部分公有雲,都會為LoadBalancer的service自動創建一個負載均衡器,通常還綁定了公網地址。只要把域名解析指向該地址,就實現了集群服務的對外暴露。
NodePort Service
用deployment模式部署ingress-controller,並創建對應的服務,但是type為NodePort。這樣,ingress就會暴露在集群節點ip的特定端口上。由於nodeport暴露的端口是隨機端口,一般會在前面再搭建一套負載均衡器來轉發請求。該方式一般用於宿主機是相對固定的環境ip地址不變的場景。NodePort方式暴露ingress雖然簡單方便,但是NodePort多了一層NAT,在請求量級很大時可能對性能會有一定影響。
HostNetwork Service
用DaemonSet結合nodeselector來部署ingress-controller到特定的node上,然后使用HostNetwork直接把該pod與宿主機node的網絡打通,直接使用宿主機的80/433端口就能訪問服務。這時,ingress-controller所在的node機器就很類似傳統架構的邊緣節點,比如機房入口的nginx服務器。該方式整個請求鏈路最簡單,性能相對NodePort模式更好。缺點是由於直接利用宿主機節點的網絡和端口,一個node只能部署一個ingress-controller pod。比較適合大並發的生產環境使用。
部署ingress
mandatory.yaml地址https://github.com/boilingfrog/daily-test/blob/master/k8s/ingress/mandatory.yaml
創建
$ kubectl apply -f ./mandatory.yaml
$ kubectl get pods -n ingress-nginx
$ kubectl get service -n ingress-nginx
配置ingress轉發策略
首先查看service
$ kubectl get svc
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
go-app-svc NodePort 10.0.0.247 <none> 8000:35100/TCP 2d13h
配置ingress
$ cat ingress-go.yaml
apiVersion: extensions/v1beta1
kind: Ingress
metadata:
name: web-ingress
spec:
rules:
- host: www.liz-test.com
http:
paths:
- backend:
serviceName: go-app-svc
servicePort: 8000
添加本機的host
查看
$ kubectl get pod -n ingress-nginx -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
nginx-ingress-controller-495zq 1/1 Running 0 13m 192.168.56.202 192.168.56.202 <none> <none>
nginx-ingress-controller-6nlrb 1/1 Running 0 13m 192.168.56.203 192.168.56.203 <none> <none>
nginx-ingress-controller是在192.168.56.202上面的,所以我們下面的host就配置到這個機器中。
$ sudo vi /etc/hosts
// 根據ingress部署的iP
192.168.56.202 www.liz-test.com
訪問結果
參考
【K8S 安裝 Ingress】https://www.jianshu.com/p/4370c00c040a
【k8s ingress原理及ingress-nginx部署測試】https://segmentfault.com/a/1190000019908991
【Kubernetes Deployment 故障排查常見方法[譯]】https://www.qikqiak.com/post/troubleshooting-deployments/
【kubernetes部署-ingress】https://blog.csdn.net/u013726175/article/details/88177110