一個DaemonSet對象能確保其創建的Pod在集群中的每一台(或指定)Node上都運行一個副本。
如果集群中動態加入了新的Node,DaemonSet中的Pod也會被添加在新加入Node上運行。刪除一個DaemonSet也會級聯刪除所有其創建的Pod。下面是一些典型的DaemonSet的使用場景:
- 在每台節點上運行一個集群存儲服務,例如運行glusterd,ceph。
- 在每台節點上運行一個日志收集服務,例如fluentd,logstash。
- 在每台節點上運行一個節點監控服務,例如Prometheus Node Exporter, collectd, Datadog agent, New Relic agent, 或Ganglia gmond
創建一個DaemonSet對象
下面的描述文件創建了一個運行着fluentd-elasticsearch鏡像的DaemonSet對象:
apiVersion: apps/v1
kind: DaemonSet
metadata:
name: fluentd-elasticsearch
namespace: kube-system
labels:
k8s-app: fluentd-logging
spec:
selector:
matchLabels:
name: fluentd-elasticsearch
template:
metadata:
labels:
name: fluentd-elasticsearch
spec:
tolerations:
- key: node-role.kubernetes.io/master
effect: NoSchedule
containers:
- name: fluentd-elasticsearch
image: k8s.gcr.io/fluentd-elasticsearch:1.20
resources:
limits:
memory: 200Mi
requests:
cpu: 100m
memory: 200Mi
volumeMounts:
- name: varlog
mountPath: /var/log
- name: varlibdockercontainers
mountPath: /var/lib/docker/containers
readOnly: true
terminationGracePeriodSeconds: 30
volumes:
- name: varlog
hostPath:
path: /var/log
- name: varlibdockercontainers
hostPath:
path: /var/lib/docker/containers
在Kubernetes 1.8之后,必須指定.spec.selector來確定這個DaemonSet對象管理的Pod,通常與.spec.template.metadata.labels中定義的Pod的label一致。
通過指定
.spec.template.spec.nodeSelector或
.spec.template.spec.affinity,DaemonSet Controller會將Pod創建在特定的Node上。
Daemon Pods的調度特性
默認情況下,Pod被分配到具體哪一台Node上運行是由Scheduler(負責分配調度Pod到集群內的Node上,它通過監聽ApiServer,查詢還未分配Node的Pod,然后根據調度策略為這些Pod分配Node)決定的。但是,DaemonSet對象創建的Pod卻擁有一些特殊的特性:
- Node的
unschedulable屬性會被DaemonSet Controller忽略。 - 即使Scheduler還未啟動,DaemonSet Controller也能夠創建並運行Pod。
