你好,我是张磊。今天我和你分享的主题是:容器化守护进程的意义之DaemonSet。
在上一篇文章中,我和你详细分享了使用StatefulSet编排“有状态应用”的过程。从中不难看出,StatefulSet其实就是对现有典型运维业务的容器化抽象。也就是说,你一定有方法在不使用Kubernetes、甚至不使用容器的情况下,自己DIY一个类似的方案出来。但是,一旦涉及到升级、版本管理等更工程化的能力,Kubernetes的好处,才会更加凸现。
比如,如何对StatefulSet进行“滚动更新”(rolling update)?
很简单。你只要修改StatefulSet的Pod模板,就会自动触发“滚动更新”:
$ kubectl patch statefulset mysql --type='json' -p='[{"op": "replace", "path": "/spec/template/spec/containers/0/image", "value":"mysql:5.7.23"}]'
statefulset.apps/mysql patched
在这里,我使用了kubectl patch命令。它的意思是,以“补丁”的方式(JSON格式的)修改一个API对象的指定字段,也就是我在后面指定的“spec/template/spec/containers/0/image”。
这样,StatefulSet Controller就会按照与Pod编号相反的顺序,从最后一个Pod开始,逐一更新这个StatefulSet管理的每个Pod。而如果更新发生了错误,这次“滚动更新”就会停止。此外,StatefulSet的“滚动更新”还允许我们进行更精细的控制,比如金丝雀发布(Canary Deploy)或者灰度发布,这意味着应用的多个实例中被指定的一部分不会被更新到最新的版本。
这个字段,正是StatefulSet的spec.updateStrategy.rollingUpdate的partition字段。
比如,现在我将前面这个StatefulSet的partition字段设置为2:
$ kubectl patch statefulset mysql -p '{"spec":{"updateStrategy":{"type":"RollingUpdate","rollingUpdate":{"partition":2}}}}'
statefulset.apps/mysql patched
其中,kubectl patch命令后面的参数(JSON格式的),就是partition字段在API对象里的路径。所以,上述操作等同于直接使用 kubectl edit命令,打开这个对象,把partition字段修改为2。
这样,我就指定了当Pod模板发生变化的时候,比如MySQL镜像更新到5.7.23,那么只有序号大于或者等于2的Pod会被更新到这个版本。并且,如果你删除或者重启了序号小于2的Pod,等它再次启动后,也会保持原先的5.7.2版本,绝不会被升级到5.7.23版本。
StatefulSet可以说是Kubernetes项目中最为复杂的编排对象,希望你课后能认真消化,动手实践一下这个例子。
而在今天这篇文章中,我会为你重点讲解一个相对轻松的知识点:DaemonSet。
顾名思义,DaemonSet的主要作用,是让你在Kubernetes集群里,运行一个Daemon Pod。 所以,这个Pod有如下三个特征:
这个Pod运行在Kubernetes集群里的每一个节点(Node)上;
每个节点上只有一个这样的Pod实例;
当有新的节点加入Kubernetes集群后,该Pod会自动地在新节点上被创建出来;而当旧节点被删除后,它上面的Pod也相应地会被回收掉。
这个机制听起来很简单,但Daemon Pod的意义确实是非常重要的。我随便给你列举几个例子:
各种网络插件的Agent组件,都必须运行在每一个节点上,用来处理这个节点上的容器网络;
各种存储插件的Agent组件,也必须运行在每一个节点上,用来在这个节点上挂载远程存储目录,操作容器的Volume目录;
各种监控组件和日志组件,也必须运行在每一个节点上,负责这个节点上的监控信息和日志搜集。
更重要的是,跟其他编排对象不一样,DaemonSet开始运行的时机,很多时候比整个Kubernetes集群出现的时机都要早。
这个乍一听起来可能有点儿奇怪。但其实你来想一下:如果这个DaemonSet正是一个网络插件的Agent组件呢?
这个时候,整个Kubernetes集群里还没有可用的容器网络,所有Worker节点的状态都是NotReady(NetworkReady=false)。这种情况下,普通的Pod肯定不能运行在这个集群上。所以,这也就意味着DaemonSet的设计,必须要有某种“过人之处”才行。
为了弄清楚DaemonSet的工作原理,我们还是按照老规矩,先从它的API对象的定义说起。
apiVersion: apps/v1
kind: DaemonSet
metadata:
name: fluentd-elasticsearch
namespace: kube-system
labels:
k8s-app: fluentd-logging
spec:
selector:
matchLabels:
name: fluentd-elasticsearch
template:
metadata:
labels:
name: fluentd-elasticsearch
spec:
tolerations:
- key: node-role.kubernetes.io/master
effect: NoSchedule
containers:
- name: fluentd-elasticsearch
image: k8s.gcr.io/fluentd-elasticsearch:1.20
resources:
limits:
memory: 200Mi
requests:
cpu: 100m
memory: 200Mi
volumeMounts:
- name: varlog
mountPath: /var/log
- name: varlibdockercontainers
mountPath: /var/lib/docker/containers
readOnly: true
terminationGracePeriodSeconds: 30
volumes:
- name: varlog
hostPath:
path: /var/log
- name: varlibdockercontainers
hostPath:
path: /var/lib/docker/containers
这个DaemonSet,管理的是一个fluentd-elasticsearch镜像的Pod。这个镜像的功能非常实用:通过fluentd将Docker容器里的日志转发到ElasticSearch中。
可以看到,DaemonSet跟Deployment其实非常相似,只不过是没有replicas字段;它也使用selector选择管理所有携带了name=fluentd-elasticsearch标签的Pod。
而这些Pod的模板,也是用template字段定义的。在这个字段中,我们定义了一个使用 fluentd-elasticsearch:1.20镜像的容器,而且这个容器挂载了两个hostPath类型的Volume,分别对应宿主机的/var/log目录和/var/lib/docker/containers目录。
显然,fluentd启动之后,它会从这两个目录里搜集日志信息,并转发给ElasticSearch保存。这样,我们通过ElasticSearch就可以很方便地检索这些日志了。
需要注意的是,Docker容器里应用的日志,默认会保存在宿主机的/var/lib/docker/containers/{{.容器ID}}/{{.容器ID}}-json.log文件里,所以这个目录正是fluentd的搜集目标。
那么,DaemonSet又是如何保证每个Node上有且只有一个被管理的Pod呢?
显然,这是一个典型的“控制器模型”能够处理的问题。
DaemonSet Controller,首先从Etcd里获取所有的Node列表,然后遍历所有的Node。这时,它就可以很容易地去检查,当前这个Node上是不是有一个携带了name=fluentd-elasticsearch标签的Pod在运行。
而检查的结果,可能有这么三种情况:
没有这种Pod,那么就意味着要在这个Node上创建这样一个Pod;
有这种Pod,但是数量大于1,那就说明要把多余的Pod从这个Node上删除掉;
正好只有一个这种Pod,那说明这个节点是正常的。
其中,删除节点(Node)上多余的Pod非常简单,直接调用Kubernetes API就可以了。
但是,如何在指定的Node上创建新Pod呢?
如果你已经熟悉了Pod API对象的话,那一定可以立刻说出答案:用nodeSelector,选择Node的名字即可。
nodeSelector:
name: <Node名字>
没错。
不过,在Kubernetes项目里,nodeSelector其实已经是一个将要被废弃的字段了。因为,现在有了一个新的、功能更完善的字段可以代替它,即:nodeAffinity。我来举个例子:
apiVersion: v1
kind: Pod
metadata:
name: with-node-affinity
spec:
affinity:
nodeAffinity:
requiredDuringSchedulingIgnoredDuringExecution:
nodeSelectorTerms:
- matchExpressions:
- key: metadata.name
operator: In
values:
- node-geektime
在这个Pod里,我声明了一个spec.affinity字段,然后定义了一个nodeAffinity。其中,spec.affinity字段,是Pod里跟调度相关的一个字段。关于它的完整内容,我会在讲解调度策略的时候再详细阐述。
而在这里,我定义的nodeAffinity的含义是:
requiredDuringSchedulingIgnoredDuringExecution:它的意思是说,这个nodeAffinity必须在每次调度的时候予以考虑。同时,这也意味着你可以设置在某些情况下不考虑这个nodeAffinity;
这个Pod,将来只允许运行在“metadata.name
”是“node-geektime”的节点上。
在这里,你应该注意到nodeAffinity的定义,可以支持更加丰富的语法,比如operator: In(即:部分匹配;如果你定义operator: Equal,就是完全匹配),这也正是nodeAffinity会取代nodeSelector的原因之一。
备注:其实在大多数时候,这些Operator语义没啥用处。所以说,在学习开源项目的时候,一定要学会抓住“主线”。不要顾此失彼。
所以,我们的DaemonSet Controller会在创建Pod的时候,自动在这个Pod的API对象里,加上这样一个nodeAffinity定义。其中,需要绑定的节点名字,正是当前正在遍历的这个Node。
当然,DaemonSet并不需要修改用户提交的YAML文件里的Pod模板,而是在向Kubernetes发起请求之前,直接修改根据模板生成的Pod对象。这个思路,也正是我在前面讲解Pod对象时介绍过的。
此外,DaemonSet还会给这个Pod自动加上另外一个与调度相关的字段,叫作tolerations。这个字段意味着这个Pod,会“容忍”(Toleration)某些Node的“污点”(Taint)。
而DaemonSet自动加上的tolerations字段,格式如下所示:
apiVersion: v1
kind: Pod
metadata:
name: with-toleration
spec:
tolerations:
- key: node.kubernetes.io/unschedulable
operator: Exists
effect: NoSchedule
这个Toleration的含义是:“容忍”所有被标记为unschedulable“污点”的Node;“容忍”的效果是允许调度。
备注:关于如何给一个Node标记上“污点”,以及这里具体的语法定义,我会在后面介绍调度器的时候做详细介绍。这里,你可以简单地把“污点”理解为一种特殊的Label。
而在正常情况下,被标记了unschedulable“污点”的Node,是不会有任何Pod被调度上去的(effect: NoSchedule)。可是,DaemonSet自动地给被管理的Pod加上了这个特殊的Toleration,就使得这些Pod可以忽略这个限制,继而保证每个节点上都会被调度一个Pod。当然,如果这个节点有故障的话,这个Pod可能会启动失败,而DaemonSet则会始终尝试下去,直到Pod启动成功。
这时,你应该可以猜到,我在前面介绍到的DaemonSet的“过人之处”,其实就是依靠Toleration实现的。
假如当前DaemonSet管理的,是一个网络插件的Agent Pod,那么你就必须在这个DaemonSet的YAML文件里,给它的Pod模板加上一个能够“容忍”node.kubernetes.io/network-unavailable
“污点”的Toleration。正如下面这个例子所示:
...
template:
metadata:
labels:
name: network-plugin-agent
spec:
tolerations:
- key: node.kubernetes.io/network-unavailable
operator: Exists
effect: NoSchedule
在Kubernetes项目中,当一个节点的网络插件尚未安装时,这个节点就会被自动加上名为node.kubernetes.io/network-unavailable
的“污点”。
而通过这样一个Toleration,调度器在调度这个Pod的时候,就会忽略当前节点上的“污点”,从而成功地将网络插件的Agent组件调度到这台机器上启动起来。
这种机制,正是我们在部署Kubernetes集群的时候,能够先部署Kubernetes本身、再部署网络插件的根本原因:因为当时我们所创建的Weave的YAML,实际上就是一个DaemonSet。
这里,你也可以再回顾一下第11篇文章《从0到1:搭建一个完整的Kubernetes集群》中的相关内容。
至此,通过上面这些内容,你应该能够明白,DaemonSet其实是一个非常简单的控制器。在它的控制循环中,只需要遍历所有节点,然后根据节点上是否有被管理Pod的情况,来决定是否要创建或者删除一个Pod。
只不过,在创建每个Pod的时候,DaemonSet会自动给这个Pod加上一个nodeAffinity,从而保证这个Pod只会在指定节点上启动。同时,它还会自动给这个Pod加上一个Toleration,从而忽略节点的unschedulable“污点”。
当然,你也可以在Pod模板里加上更多种类的Toleration,从而利用DaemonSet达到自己的目的。比如,在这个fluentd-elasticsearch DaemonSet里,我就给它加上了这样的Toleration:
tolerations:
- key: node-role.kubernetes.io/master
effect: NoSchedule
这是因为在默认情况下,Kubernetes集群不允许用户在Master节点部署Pod。因为,Master节点默认携带了一个叫作node-role.kubernetes.io/master
的“污点”。所以,为了能在Master节点上部署DaemonSet的Pod,我就必须让这个Pod“容忍”这个“污点”。
在理解了DaemonSet的工作原理之后,接下来我就通过一个具体的实践来帮你更深入地掌握DaemonSet的使用方法。
备注:需要注意的是,在Kubernetes v1.11之前,由于调度器尚不完善,DaemonSet是由DaemonSet Controller自行调度的,即它会直接设置Pod的spec.nodename字段,这样就可以跳过调度器了。但是,这样的做法很快就会被废除,所以在这里我也不推荐你再花时间学习这个流程了。
首先,创建这个DaemonSet对象:
$ kubectl create -f fluentd-elasticsearch.yaml
需要注意的是,在DaemonSet上,我们一般都应该加上resources字段,来限制它的CPU和内存使用,防止它占用过多的宿主机资源。
而创建成功后,你就能看到,如果有N个节点,就会有N个fluentd-elasticsearch Pod在运行。比如在我们的例子里,会有两个Pod,如下所示:
$ kubectl get pod -n kube-system -l name=fluentd-elasticsearch
NAME READY STATUS RESTARTS AGE
fluentd-elasticsearch-dqfv9 1/1 Running 0 53m
fluentd-elasticsearch-pf9z5 1/1 Running 0 53m
而如果你此时通过kubectl get查看一下Kubernetes集群里的DaemonSet对象:
$ kubectl get ds -n kube-system fluentd-elasticsearch
NAME DESIRED CURRENT READY UP-TO-DATE AVAILABLE NODE SELECTOR AGE
fluentd-elasticsearch 2 2 2 2 2 <none> 1h
备注:Kubernetes里比较长的API对象都有短名字,比如DaemonSet对应的是ds,Deployment对应的是deploy。
就会发现DaemonSet和Deployment一样,也有DESIRED、CURRENT等多个状态字段。这也就意味着,DaemonSet可以像Deployment那样,进行版本管理。这个版本,可以使用kubectl rollout history看到:
$ kubectl rollout history daemonset fluentd-elasticsearch -n kube-system
daemonsets "fluentd-elasticsearch"
REVISION CHANGE-CAUSE
1 <none>
接下来,我们来把这个DaemonSet的容器镜像版本到v2.2.0:
$ kubectl set image ds/fluentd-elasticsearch fluentd-elasticsearch=k8s.gcr.io/fluentd-elasticsearch:v2.2.0 --record -n=kube-system
这个kubectl set image命令里,第一个fluentd-elasticsearch是DaemonSet的名字,第二个fluentd-elasticsearch是容器的名字。
这时候,我们可以使用kubectl rollout status命令看到这个“滚动更新”的过程,如下所示:
$ kubectl rollout status ds/fluentd-elasticsearch -n kube-system
Waiting for daemon set "fluentd-elasticsearch" rollout to finish: 0 out of 2 new pods have been updated...
Waiting for daemon set "fluentd-elasticsearch" rollout to finish: 0 out of 2 new pods have been updated...
Waiting for daemon set "fluentd-elasticsearch" rollout to finish: 1 of 2 updated pods are available...
daemon set "fluentd-elasticsearch" successfully rolled out
注意,由于这一次我在升级命令后面加上了–record参数,所以这次升级使用到的指令就会自动出现在DaemonSet的rollout history里面,如下所示:
$ kubectl rollout history daemonset fluentd-elasticsearch -n kube-system
daemonsets "fluentd-elasticsearch"
REVISION CHANGE-CAUSE
1 <none>
2 kubectl set image ds/fluentd-elasticsearch fluentd-elasticsearch=k8s.gcr.io/fluentd-elasticsearch:v2.2.0 --namespace=kube-system --record=true
有了版本号,你也就可以像Deployment一样,将DaemonSet回滚到某个指定的历史版本了。
而我在前面的文章中讲解Deployment对象的时候,曾经提到过,Deployment管理这些版本,靠的是“一个版本对应一个ReplicaSet对象”。可是,DaemonSet控制器操作的直接就是Pod,不可能有ReplicaSet这样的对象参与其中。那么,它的这些版本又是如何维护的呢?
所谓,一切皆对象!
在Kubernetes项目中,任何你觉得需要记录下来的状态,都可以被用API对象的方式实现。当然,“版本”也不例外。
Kubernetes v1.7之后添加了一个API对象,名叫ControllerRevision,专门用来记录某种Controller对象的版本。比如,你可以通过如下命令查看fluentd-elasticsearch对应的ControllerRevision:
$ kubectl get controllerrevision -n kube-system -l name=fluentd-elasticsearch
NAME CONTROLLER REVISION AGE
fluentd-elasticsearch-64dc6799c9 daemonset.apps/fluentd-elasticsearch 2 1h
而如果你使用kubectl describe查看这个ControllerRevision对象:
$ kubectl describe controllerrevision fluentd-elasticsearch-64dc6799c9 -n kube-system
Name: fluentd-elasticsearch-64dc6799c9
Namespace: kube-system
Labels: controller-revision-hash=2087235575
name=fluentd-elasticsearch
Annotations: deprecated.daemonset.template.generation=2
kubernetes.io/change-cause=kubectl set image ds/fluentd-elasticsearch fluentd-elasticsearch=k8s.gcr.io/fluentd-elasticsearch:v2.2.0 --record=true --namespace=kube-system
API Version: apps/v1
Data:
Spec:
Template:
$ Patch: replace
Metadata:
Creation Timestamp: <nil>
Labels:
Name: fluentd-elasticsearch
Spec:
Containers:
Image: k8s.gcr.io/fluentd-elasticsearch:v2.2.0
Image Pull Policy: IfNotPresent
Name: fluentd-elasticsearch
...
Revision: 2
Events: <none>
就会看到,这个ControllerRevision对象,实际上是在Data字段保存了该版本对应的完整的DaemonSet的API对象。并且,在Annotation字段保存了创建这个对象所使用的kubectl命令。
接下来,我们可以尝试将这个DaemonSet回滚到Revision=1时的状态:
$ kubectl rollout undo daemonset fluentd-elasticsearch --to-revision=1 -n kube-system
daemonset.extensions/fluentd-elasticsearch rolled back
这个kubectl rollout undo操作,实际上相当于读取到了Revision=1的ControllerRevision对象保存的Data字段。而这个Data字段里保存的信息,就是Revision=1时这个DaemonSet的完整API对象。
所以,现在DaemonSet Controller就可以使用这个历史API对象,对现有的DaemonSet做一次PATCH操作(等价于执行一次kubectl apply -f “旧的DaemonSet对象”),从而把这个DaemonSet“更新”到一个旧版本。
这也是为什么,在执行完这次回滚完成后,你会发现,DaemonSet的Revision并不会从Revision=2退回到1,而是会增加成Revision=3。这是因为,一个新的ControllerRevision被创建了出来。
在今天这篇文章中,我首先简单介绍了StatefulSet的“滚动更新”,然后重点讲解了本专栏的第三个重要编排对象:DaemonSet。
相比于Deployment,DaemonSet只管理Pod对象,然后通过nodeAffinity和Toleration这两个调度器的小功能,保证了每个节点上有且只有一个Pod。这个控制器的实现原理简单易懂,希望你能够快速掌握。
与此同时,DaemonSet使用ControllerRevision,来保存和管理自己对应的“版本”。这种“面向API对象”的设计思路,大大简化了控制器本身的逻辑,也正是Kubernetes项目“声明式API”的优势所在。
而且,相信聪明的你此时已经想到了,StatefulSet也是直接控制Pod对象的,那么它是不是也在使用ControllerRevision进行版本管理呢?
没错。在Kubernetes项目里,ControllerRevision其实是一个通用的版本管理对象。这样,Kubernetes项目就巧妙地避免了每种控制器都要维护一套冗余的代码和逻辑的问题。
我在文中提到,在Kubernetes v1.11之前,DaemonSet所管理的Pod的调度过程,实际上都是由DaemonSet Controller自己而不是由调度器完成的。你能说出这其中有哪些原因吗?
感谢你的收听,欢迎你给我留言,也欢迎分享给更多的朋友一起阅读。
评论