【kubernetes】探索k8s集群的pod控制器详解(Deployment、StatefulSet、DaemonSet、Job、CronJob)

目录

一、Pod控制器及其功用

二、pod控制器有多种类型

2.1ReplicaSet

2.1.1ReplicaSet主要三个组件组成

2.2Deployment

2.3DaemonSet

2.4StatefulSet

2.5Job

2.6Cronjob

三、Pod与控制器之间的关系

3.1Deployment

3.2SatefulSet

3.2.1StatefulSet三个组件

3.2.2为什么要有headless

3.2.3为什么要有volumeClainTemplate?

3.2.4实现K8S里DNS功能的插件:

3.2.4.1安装CoreDNS,仅二进制部署环境需要安装CoreDNS

3.2.5部署

3.2.5.1定义资源清单

3.2.5.2创建 statefulset 

3.2.5.3删除 statefulset 

3.2.5.4滚动更新

3.2.6查看命令

3.2.6.1查看创建的无头服务myapp-svc

3.2.6.2查看statefulset

3.2.6.3查看pvc绑定

3.2.6.4查看pv绑定

3.2.6.5查看Pod信息

3.2.6statefulset的特点

3.3DaemonSet(工作负载)控制器

3.3.1关键特性

3.3.2典型用例

3.3.3应用场景

3.4Job

3.4.1应用场景

3.5CronJob 

3.5.1应用场景

3.5.2部署CronJob 

3.5.3cronjob其它可用参数的配置

四、温故而知新


一、Pod控制器及其功用

Pod控制器,又称之为工作负载(workload),是用于实现管理pod的中间层,确保pod资源符合预期的状态,pod的资源出现故障时,会尝试进行重启,当根据重启策略无效,则会重新新建pod的资源。

二、pod控制器有多种类型

2.1ReplicaSet

代用户创建指定数量的pod副本,确保pod副本数量符合预期状态,并且支持滚动式自动扩容和缩容功能。

2.1.1ReplicaSet主要三个组件组成

(1)用户期望的pod副本数量
(2)标签选择器,判断哪个pod归自己管理
(3)当现存的pod数量不足,会根据pod资源模板进行新建
帮助用户管理无状态的pod资源,精确反应用户定义的目标数量,但是RelicaSet不是直接使用的控制器,而是使用Deployment。

2.2Deployment

工作在ReplicaSet之上,用于管理无状态应用,目前来说最好的控制器。支持滚动更新和回滚功能,还提供声明式配置。  例如:搭建微服务
ReplicaSet 与Deployment 这两个资源对象逐步替换之前RC的作用。

(无状态的像nginx,有状态的像mysql(它每天都要写入数据、存数据,都会有变化,所以是有状态的))

2.3DaemonSet

用于确保集群中的每一个节点只运行特定的pod副本,通常用于实现系统级后台任务。

比如ELK服务
特性:服务是无状态的
服务必须是守护进程

2.4StatefulSet

管理有状态应用

2.5Job

只要完成就立即退出,不需要重启或重建

2.6Cronjob

周期性任务控制,不需要持续后台运行

三、Pod与控制器之间的关系

controllers:在集群上管理和运行容器的 pod 对象, pod 通过 label-selector 相关联。
Pod 通过控制器实现应用的运维,如伸缩,升级等。

3.1Deployment

  • 部署无状态应用
  • 管理Pod和ReplicaSet
  • 具有上线部署、副本设定、滚动升级、回滚等功能
  • 提供声明式更新,例如只更新一个新的image
  • 应用场景:web服务(例如nginx、微服务)

Deployments | KubernetesDeployment 用于管理运行一个应用负载的一组 Pod,通常适用于不保持状态的负载。icon-default.png?t=N7T8https://kubernetes.io/zh-cn/docs/concepts/workloads/controllers/deployment/

官网示例:

下面是一个 Deployment 示例。其中创建了一个 ReplicaSet,负责启动三个 nginx Pod:

apiVersion: apps/v1
kind: Deployment
metadata:name: nginx-deploymentlabels:app: nginx
spec:replicas: 3selector:matchLabels:app: nginxtemplate:metadata:labels:app: nginxspec:containers:- name: nginximage: nginx:1.14.2ports:- containerPort: 80

部署:

cd /opt/pod-kongzhiqi
kubectl create deployment nginx-deployment --image=nginx:1.15 --port=80 --replicas=2 --dry-run=client -oyaml > nginx-deployment.yaml

快速编写yaml文件

apiVersion: apps/v1
kind: Deployment
metadata:labels:app: nginx-deploymentname: nginx-deployment
spec:replicas: 2selector:matchLabels:app: nginx-deploymenttemplate:metadata:labels:app: nginx-deploymentspec:containers:- image: nginx:1.15name: nginxports:- containerPort: 80

在示例中,Deployment使用了Nginx的Docker镜像nginx:1.15如果想要更新这个镜像到新版本,只需修改YAML文件中的image字段,然后重新应用配置即可。Kubernetes会自动处理更新过程。

Deployment配置文件解释:

  • apiVersion: apps/v1:指定了Kubernetes API的版本。
  • kind: Deployment:表明这是一个Deployment资源。
  • metadata:包含了Deployment的名称和标签。
  • spec:定义了Deployment的规格。
  • replicas:设置期望的Pod副本数量为2。
  • selector:使用matchLabels来选择具有相同标签的Pod。
  • template:定义了Pod模板,包括Pod的元数据和规格。
  • metadata:Pod的标签与Deployment的标签匹配。
  • spec:定义了Pod的容器规格,包括容器名称、镜像和端口

kubectl get pods,deploy,rs

查看pod 的yaml格式配置

kubectl edit deployment/nginx-deployment
[root@master01 pod-kongzhiqi]#pwd
/opt/pod-kongzhiqi
[root@master01 pod-kongzhiqi]#kubectl edit deployment/nginx-deployment
# Please edit the object below. Lines beginning with a '#' will be ignored,
# and an empty file will abort the edit. If an error occurs while saving this file will be
# reopened with the relevant failures.
#
apiVersion: apps/v1
kind: Deployment
metadata:annotations:deployment.kubernetes.io/revision: "1"kubectl.kubernetes.io/last-applied-configuration: |{"apiVersion":"apps/v1","kind":"Deployment","metadata":{"annotations":{},"labels":{"app":"nginx-deployment"},"name":"nginx-deployment","namespace":"default"},"spec":{"replicas":2,"selector":{"matchLabels":{"app":"nginx-deployment"}},"template":{"metadata":{"labels":{"app":"nginx-deployment"}},"spec":{"containers":[{"image":"nginx:1.15","name":"nginx","ports":[{"containerPort":80}]}]}}}}creationTimestamp: "2024-05-30T07:57:41Z"generation: 1labels:app: nginx-deployment  #Deployment资源的标签name: nginx-deploymentnamespace: defaultresourceVersion: "70320"selfLink: /apis/apps/v1/namespaces/default/deployments/nginx-deploymentuid: 55353951-63cf-4566-aed3-1c1f73949770
spec:progressDeadlineSeconds: 600replicas: 2      	#期望的pod数量,默认是1revisionHistoryLimit: 10selector:matchLabels:app: nginx-deploymentstrategy:rollingUpdate:maxSurge: 25%   #升级过程中会先启动的新Pod的数量不超过期望的Pod数量的25%,也可以是一个绝对值maxUnavailable: 25%  #升级过程中在新的Pod启动好后销毁的旧Pod的数量不超过期望的Pod数量的25%,也可以是一个绝对值type: RollingUpdate   #滚动升级template:metadata:creationTimestamp: nulllabels:               #Pod副本关联的标签app: nginx-deploymentspec:containers:- image: nginx:1.15     #镜像名称imagePullPolicy: IfNotPresent  #镜像拉取策略name: nginxports:- containerPort: 80   #容器暴露的监听端口protocol: TCPresources: {}terminationMessagePath: /dev/termination-logterminationMessagePolicy: FilednsPolicy: ClusterFirstrestartPolicy: Always   #容器重启策略schedulerName: default-schedulersecurityContext: {}terminationGracePeriodSeconds: 30
status:availableReplicas: 2conditions:- lastTransitionTime: "2024-05-30T07:58:52Z"lastUpdateTime: "2024-05-30T07:58:52Z"message: Deployment has minimum availability.reason: MinimumReplicasAvailablestatus: "True"type: Available- lastTransitionTime: "2024-05-30T07:57:41Z"lastUpdateTime: "2024-05-30T07:58:52Z"message: ReplicaSet "nginx-deployment-6cc9594db" has successfully progressed.reason: NewReplicaSetAvailablestatus: "True"type: ProgressingobservedGeneration: 1readyReplicas: 2replicas: 2updatedReplicas: 2

查看历史版本

kubectl rollout history deployment/nginx-deployment

3.2SatefulSet

  • 部署有状态应用
  • 稳定的持久化存储,即Pod重新调度后还是能访问到相同的持久化数据,基于PVC来实现
  • 稳定的网络标志,即Pod重新调度后其PodName和HostName不变,基于Headless Service(即没有Cluster IP的Service)来实现
  • 有序部署,有序扩展,即Pod是有顺序的,在部署或者扩展的时候要依据定义的顺序依次进行(即从0到N-1,在下一个Pod运行之前所有之前的Pod必须都是Running和Ready状态),基于init containers来实现
  • 有序收缩,有序删除(即从N-1到0) StatefulSet 也确保 Pod 是有序删除的,即从 N-1 到 0 的顺序。
  • 常见的应用场景:数据库

官方文档https://kubernetes.io/docs/concepts/workloads/controllers/statefulset/

StatefulSet | Kubernetesicon-default.png?t=N7T8https://kubernetes.io/zh-cn/docs/concepts/workloads/controllers/statefulset/

https://kubernetes.io/docs/concepts/workloads/controllers/statefulset/apiVersion: v1
kind: Service
metadata:name: nginxlabels:app: nginx
spec:ports:- port: 80name: webclusterIP: Noneselector:app: nginx
---
apiVersion: apps/v1
kind: StatefulSet
metadata:name: web
spec:selector:matchLabels:app: nginx # has to match .spec.template.metadata.labelsserviceName: "nginx"replicas: 3 # by default is 1template:metadata:labels:app: nginx # has to match .spec.selector.matchLabelsspec:terminationGracePeriodSeconds: 10containers:- name: nginximage: k8s.gcr.io/nginx-slim:0.8ports:- containerPort: 80name: webvolumeMounts:- name: wwwmountPath: /usr/share/nginx/htmlvolumeClaimTemplates:- metadata:name: wwwspec:accessModes: [ "ReadWriteOnce" ]storageClassName: "my-storage-class"resources:requests:storage: 1Gi

示例定义了一个 Headless Service 和一个 StatefulSet,用于部署一个名为 nginx 的应用。这个 StatefulSet 配置了 3 个副本,每个 Pod 都有一个名为 www 的 PVC,用于存储,并且使用了 nginx-slim 镜像。这个 StatefulSet 还设置了一个 Headless Service 来提供稳定的网络标识。

3.2.1StatefulSet三个组件

从上面的应用场景可以发现,StatefulSet由以下几个部分组成:

  • Headless Service(无头服务):用于为Pod资源标识符生成可解析的DNS记录。
  • volumeClaimTemplates(存储卷申请模板):基于静态或动态PV供给方式为Pod资源提供专有的固定存储。
  • StatefulSet:用于管控Pod资源。

3.2.2为什么要有headless

在deployment中,每一个pod是没有名称,是随机字符串,是无序的。而statefulset中是要求有序的,每一个pod的名称必须是固定的。当节点挂了,重建之后的标识符是不变的,每一个节点的节点名称是不能改变的。pod名称是作为pod识别的唯一标识符,必须保证其标识符的稳定并且唯一。
为了实现标识符的稳定,这时候就需要一个headless service 解析直达到pod,还需要给pod配置一个唯一的名称。

3.2.3为什么要有volumeClainTemplate?

大部分有状态副本集都会用到持久存储,比如分布式系统来说,由于数据是不一样的,每个节点都需要自己专用的存储节点。而在 deployment中pod模板中创建的存储卷是一个共享的存储卷,多个pod使用同一个存储卷,而statefulset定义中的每一个pod都不能使用同一个存储卷,由此基于pod模板创建pod是不适应的,这就需要引入volumeClainTemplate,当在使用statefulset创建pod时,会自动生成一个PVC,从而请求绑定一个PV,从而有自己专用的存储卷。

服务发现:就是应用服务之间相互定位的过程。

应用场景:

  • 动态性强:Pod会飘到别的node节点
  • 更新发布频繁:互联网思维小步快跑,先实现再优化,老板永远是先上线再慢慢优化,先把idea变成产品挣到钱然后再慢慢一点一点优化
  • 支持自动伸缩:一来大促,肯定是要扩容多个副本

K8S里服务发现的方式---DNS,使K8S集群能够自动关联Service资源的“名称”和“CLUSTER-IP”,从而达到服务被集群自动发现的目的。

3.2.4实现K8S里DNS功能的插件:

  • skyDNS:Kubernetes 1.3之前的版本
  • kubeDNS:Kubernetes 1.3至Kubernetes 1.11
  • CoreDNS:Kubernetes 1.11开始至今
3.2.4.1安装CoreDNS,仅二进制部署环境需要安装CoreDNS
方法一:下载链接:https://github.com/kubernetes/kubernetes/blob/master/cluster/addons/dns/coredns/coredns.yaml.base  #官方网站vim transforms2sed.sed
s/__DNS__SERVER__/10.0.0.2/g
s/__DNS__DOMAIN__/cluster.local/g
s/__DNS__MEMORY__LIMIT__/170Mi/g
s/__MACHINE_GENERATED_WARNING__/Warning: This is a file generated from the base underscore template file: coredns.yaml.base/gsed -f transforms2sed.sed coredns.yaml.base > coredns.yaml方法二:上传 coredns.yaml 文件kubectl create -f coredns.yamlkubectl get pods -n kube-system

查看statefulset的定义:

kubectl explain statefulset

kubectl explain statefulset.spec

FIELDS:

  •    podManagementPolicy    <string>  #Pod管理策略
  •   replicas    <integer>    #副本数量
  •   revisionHistoryLimit    <integer>   #历史版本限制
  •   selector    <Object> -required-    #选择器,必选项
  •  serviceName    <string> -required-  #服务名称,必选项
  •  template    <Object> -required-    #模板,必选项
  •  updateStrategy    <Object>       #更新策略
  •  volumeClaimTemplates    <[]Object>   #存储卷申请模板,必选项

3.2.5部署

 定义一个dns-pod.yaml

apiVersion: v1
kind: Pod
metadata:name: dns-busybox
spec:containers:- name: busyboximage: busybox:1.28.4args:- /bin/sh- -c- sleep 36000restartPolicy: Never

kubectl get svc

这边只是为了检测下

进入容器测试CoreDNS解析

接着部署:

apiVersion: v1
kind: Service
metadata:name: sts-svcnamespace: defaultlabels:app: sts-svc
spec:type: ClusterIPclusterIP: Noneports:- port: 80name: httpprotocol: TCPtargetPort: 80selector:app: myapp-sts

使用 kubectl get svc 命令查看集群中的服务。可以看到 myapp-svc 服务的状态,它是一个无头服务,没有 ClusterIP。

3.2.5.1定义资源清单

apiVersion: apps/v1
kind: StatefulSet
metadata:name: myapp-sts
spec:selector:matchLabels:app: myapp-sts # 必须匹配 .spec.template.metadata.labelsserviceName: "sts-svc"replicas: 3 # 默认值是 1template:metadata:labels:app: myapp-sts # 必须匹配 .spec.selector.matchLabelsspec:containers:- name: myappimage: soscscs/myapp:v1ports:- containerPort: 80name: webvolumeMounts:- name: wwwmountPath: /usr/share/nginx/htmlvolumeClaimTemplates:- metadata:name: wwwspec:accessModes: [ "ReadWriteOnce" ]storageClassName: "nfs-client-storageclass"resources:requests:storage: 1Gi
3.2.5.2创建 statefulset 

kubectl get pv,pvc

解析上例:由于 StatefulSet 资源依赖于一个实现存在的 Headless 类型的 Service 资源,所以需要先定义一个名为 myapp-svc 的 Headless Service 资源,用于为关联到每个 Pod 资源创建 DNS 资源记录。接着定义了一个名为 myapp 的 StatefulSet 资源,它通过 Pod 模板创建了 3 个 Pod 资源副本,并基于 volumeClaimTemplates 向前面创建的PV进行了请求大小为1Gi 的专用存储卷。

stor01节点即nfs机器操作

创建pv

mkdir -p /data/volumes/v{1,2,3,4,5}

使用 mkdir 命令在 /data/volumes/ 目录下创建五个新的目录(v1 到 v5)。这些目录将用作 NFS 共享的存储卷

配置 NFS 共享

vim /etc/exports
/data/volumes/v1 192.168.246.0/24(rw,no_root_squash)
/data/volumes/v2 192.168.246.0/24(rw,no_root_squash)
/data/volumes/v3 192.168.246.0/24(rw,no_root_squash)
/data/volumes/v4 192.168.246.0/24(rw,no_root_squash)
/data/volumes/v5 192.168.246.0/24(rw,no_root_squash)

编辑 /etc/exports 文件,添加上述创建的目录作为共享资源。每个目录都配置了 IP 地址范围 192.168.246.0/24,表示只有该子网内的客户端可以访问这些共享。rw 表示允许读写权限,no_root_squash 允许 root 用户以 root 权限访问共享。

重启 NFS 服务

systemctl restart rpcbind
systemctl restart nfs

重新导出共享

exportfs -arv

查看共享列表

showmount -e

定义PV的yaml文件

pv-demo.yaml 文件包含了五个 PersistentVolume (PV) 的定义,这些 PV 将使用 NFS 服务器 stor01 上的共享目录。每个 PV 都有一个指定的容量和访问模式。

vim pv-demo.yaml
apiVersion: v1
kind: PersistentVolume
metadata:name: pv001labels:name: pv001
spec:nfs:path: /data/volumes/v1server: stor01accessModes: ["ReadWriteMany","ReadWriteOnce"]capacity:storage: 1Gi
---
apiVersion: v1
kind: PersistentVolume
metadata:name: pv002labels:name: pv002
spec:nfs:path: /data/volumes/v2server: stor01accessModes: ["ReadWriteOnce"]capacity:storage: 2Gi
---
apiVersion: v1
kind: PersistentVolume
metadata:name: pv003labels:name: pv003
spec:nfs:path: /data/volumes/v3server: stor01accessModes: ["ReadWriteMany","ReadWriteOnce"]capacity:storage: 2Gi
---
apiVersion: v1
kind: PersistentVolume
metadata:name: pv004labels:name: pv004
spec:nfs:path: /data/volumes/v4server: stor01 accessModes: ["ReadWriteMany","ReadWriteOnce"]capacity:storage: 4Gi
---
apiVersion: v1
kind: PersistentVolume
metadata:name: pv005labels:name: pv005
spec:nfs:path: /data/volumes/v5server: stor01 #可以是nfs机器的ip地址也可以是主机名,此处主机名,验证下accessModes: ["ReadWriteMany","ReadWriteOnce"]capacity:storage: 5Gi
kubectl apply -f pv-demo.yaml
kubectl get pv

使用 kubectl get pv 命令查看集群中的 PV 列表,确认这些 PV 是否已成功创建。

这些 PV 定义使得 Kubernetes 集群能够使用 NFS 共享作为持久化存储。在 StatefulSet 或其他需要持久化存储的工作负载中,可以通过 PersistentVolumeClaim (PVC) 来请求这些 PV。这样,即使 Pod 在集群中重新调度,它们也能保持对这些共享存储的访问,这对于有状态的应用(如数据库)来说非常重要。

这边就接着上一篇博客搭建好,StorageClass + NFS之后继续使用了哦,如下图

访问测试

接下来dns解析下

由于是k8s内部解析方式,所以解析不了

编写yaml文件

apiVersion: v1
kind: Pod
metadata:name: ceshi
spec:containers:- name: centosimage: centos:7command:- /bin/sh- -c- sleep 36000nodeName: node01

3.2.5.3删除 statefulset 

删除  (倒叙删除)

kubectl delete -f myapp-sts.yaml

当删除的时候是从myapp-sts-2开始进行删除的,关闭是逆向关闭

我们看到把数据库删除之后,再重新建,数据还是在的,名称对应数据库了,不管ip地址变不变,数据都在的

再重新创建,此时PVC依旧存在的,再重新创建pod时,依旧会重新去绑定原来的pvc

kubectl apply -f myapp-sts.yaml

kubectl get podkubectl exec -it ceshi sh

k8s内部的负载均衡 ,访问的时候会根据资源占比进行调度,会调度到资源少的,请求少的pod,不会负载均衡轮询的调度

K8S的内部负载均衡是根据资源的请求量,每次登入数据库所查看的数据不同,根据内部的不同调度,可能每次调度的节点都不同

3.2.5.4滚动更新

StatefulSet 控制器将在 StatefulSet 中删除并重新创建每个 Pod。它将以与 Pod 终止相同的顺序进行(从最大的序数到最小的序数),每次更新一个 Pod。在更新其前身之前,它将等待正在更新的 Pod 状态变成正在运行并就绪。如下操作的滚动更新是按照2-0的顺序更新

vim myapp-sts.yaml 

在这个配置文件里修改成v2 其他不需要需改哦

#查看滚动更新的过程  (倒叙更新)

在创建的每一个Pod中,每一个pod自己的名称都是可以被解析的

查看一下podname,还有svc的name 

解析

#从上面的解析,我们可以看到在容器当中可以通过对Pod的名称进行解析到ip。

其解析的域名格式如下:

(pod_name).(service_name).(namespace_name).svc.cluster.local

3.2.6查看命令

3.2.6.1查看创建的无头服务myapp-svc
kubectl get svc  #查看创建的无头服务myapp-svc

3.2.6.2查看statefulset
kubectl get sts

3.2.6.3查看pvc绑定
kubectl get pvc

3.2.6.4查看pv绑定
kubectl get pv

3.2.6.5查看Pod信息
kubectl get pods
3.2.6statefulset的特点
  • statefulset用于部署有状态的应用(有实时数据需要存储的应用)
  • 部署statefulset之前,需要先创建一个headless service(表示clusterip为node的特殊service类型),statefulset的配置清单模板需要去指定servicename为headless service的名称。
  • statefulset创建的pod名称是固定不变的,且唯一的
  • statefulset的资源配置模板可以设置pvc模板,指定storageclassname字段值,可以引用storageclass资源,调用存储卷插件,动态创建pv
  • statefulset管理的pod有滚动更新和扩容和缩容功能,扩容的时候为升序执行,滚动更新和缩容的时候为降序执行。
  • statefulset管理的pod可以在k8s集群的pod中,基于headless service以及coredns实现对pod名称解析出podIP

如何在 Kubernetes 中对 StatefulSet 进行扩容和缩容操作

#扩展伸缩
kubectl scale sts myapp --replicas=4  #扩容副本增加到4个kubectl get pods -w  #动态查看扩容kubectl get pv  #查看pv绑定kubectl patch sts myapp -p '{"spec":{"replicas":2}}'  #打补丁方式缩容kubectl get pods -w  #动态查看缩容

3.3DaemonSet(工作负载)控制器

DaemonSet 确保全部(或者一些)Node 上运行一个 Pod 的副本。当有 Node 加入集群时,也会为他们新增一个 Pod 。当有 Node 从集群移除时,这些 Pod 也会被回收。删除 DaemonSet 将会删除它创建的所有 Pod。

使用 DaemonSet 的一些典型用法:

  • 运行集群存储 daemon,例如在每个 Node 上运行 glusterd、ceph。
  • 在每个 Node 上运行日志收集 daemon,例如fluentd、logstash。
  • 在每个 Node 上运行监控 daemon,例如 Prometheus Node Exporter、collectd、Datadog 代理、New Relic 代理,或 Ganglia gmond。

应用场景:Agent

DaemonSet 是 Kubernetes 中的一种工作负载控制器,它确保在集群中的所有(或指定的)节点上运行一个 Pod 的副本。这使得 DaemonSet 成为运行集群级服务的理想选择,如日志收集、监控代理、存储守护进程等。

官方案例(监控)
https://kubernetes.io/docs/concepts/workloads/controllers/daemonset/

3.3.1关键特性

  • 节点覆盖:DaemonSet 确保在集群中的每个节点上都有一个 Pod 副本运行,或者根据需要在特定节点上运行。
  • 自动管理:当新节点加入集群时,DaemonSet 会自动在这些节点上创建 Pod。当节点被移除时,相应的 Pod 也会被清理。
  • 删除行为:删除 DaemonSet 会删除它创建的所有 Pod,这有助于维护集群的整洁。

3.3.2典型用例

  • 集群存储守护进程:在每个节点上运行如 GlusterFS 的 glusterd 或 Ceph 的守护进程,以提供分布式存储服务。
  • 日志收集部署如 Fluentd、Logstash 等日志收集代理,以便在每个节点上收集日志并将其发送到中央日志存储。
  • 监控代理:在每个节点上运行监控代理,如 Prometheus 的 Node Exporter、Collectd、Datadog 代理、New Relic 代理或 Ganglia 的 gmond,以收集节点的监控数据。

3.3.3应用场景

  • Agent:DaemonSet 常用于部署代理或守护进程,这些代理或守护进程作为集群的“代理”,执行特定的任务,如数据收集、服务代理等。

apiVersion: apps/v1
kind: DaemonSet
metadata:name: nginx-daemonsetlabels:app: nginx
spec:selector:matchLabels:app: nginxtemplate:metadata:labels:app: nginxspec:containers:- name: nginximage: nginx:1.14ports:- containerPort: 80

我们看到DaemonSet会在每个node节点都创建一个Pod

3.4Job

  • Job分为普通任务(Job)和定时任务(CronJob)
  • 常用于运行那些仅需要执行一次的任务
  • 应用场景:数据库迁移、批处理脚本、kube-bench扫描、离线数据处理,视频解码等业务

https://kubernetes.io/docs/concepts/workloads/controllers/jobs-run-to-completion/    

3.4.1应用场景

  • 数据库迁移:执行数据库迁移脚本,直到迁移成功。
  • 批处理脚本:运行批处理作业,如数据备份、日志清理等。
  • 安全扫描:使用 kube-bench 等工具对集群进行安全扫描。
  • 离线数据处理:处理不需要持续运行的大量数据,如数据分析、报告生成等。
  • 视频解码:执行视频转码等耗时的一次性任务

.spec.template.spec.restartPolicy该属性拥有三个候选值:OnFailure,Never和Always。默认值为Always。它主要用于描述Pod内容器的重启策略。在Job中只能将此属性设置为OnFailure或Never,否则Job将不间断运行。

.spec.backoffLimit用于设置job失败后进行重试的次数,默认值为6。默认情况下,除非Pod失败或容器异常退出,Job任务将不间断的重试,此时Job遵循 .spec.backoffLimit上述说明。一旦.spec.backoffLimit达到,作业将被标记为失败。

  • 定义了一个名为 pi 的 Job,它将运行一个 Perl 容器来计算圆周率(π)。
  • .spec.template.spec 定义了 Pod 的规格,包括容器的名称、镜像和执行的命令。
  • restartPolicy: Never 表示 Pod 失败后不会重启。
  • backoffLimit: 4 表示 Job 在失败后最多重试 4 次。
apiVersion: batch/v1
kind: Job
metadata:name: pi
spec:template:spec:containers:- name: piimage: perlcommand: ["perl",  "-Mbignum=bpi", "-wle", "print bpi(2000)"]restartPolicy: NeverbackoffLimit: 4

在所有node节点下载perl镜像,因为镜像比较大,所以建议提前下载好

使用 docker pull perl 命令提前拉取 Perl 镜像,以避免在 Job 执行时下载镜像导致延迟

docker pull perl

master 节点

使用 kubectl apply -f job.yaml 命令创建 Job。这将在集群中启动一个 Pod 来执行计算圆周率的任务。

kubectl apply -f job.yamlkubectl get pods

使用 kubectl get pods 命令查看 Pod 的状态。您可以看到 Pod pi-mql4l 已经成功完成。

结果输出到控制台

kubectl logs pi-mql4l #结果输出到控制台

清除job资源

kubectl delete -f job.yaml

使用 kubectl delete -f job.yaml 命令删除 Job 和相关的 Pod 资源

设置 Job 的重试次数 (job-limit.yaml)

backoffLimit

vim job-limit.yaml
apiVersion: batch/v1
kind: Job
metadata:name: busybox
spec:template:spec:containers:- name: busyboximage: busyboximagePullPolicy: IfNotPresentcommand: ["/bin/sh", "-c", "sleep 10;date;exit 1"]restartPolicy: NeverbackoffLimit: 2
  • 创建一个新的 Job 配置文件,名为 busybox,它将运行一个 BusyBox 容器,执行一个失败的命令(exit 1)。

  • backoffLimit: 2 表示 Job 在失败后最多重试 2 次。

kubectl apply -f job-limit.yamlkubectl get job,pods

kubectl describe job busybox

3.5CronJob 

  • 周期性任务,像Linux的Crontab一样。
  • 周期性任务
  • 应用场景:通知,备份

CronJob 是 Kubernetes 中处理周期性任务的强大工具,它使得自动化任务的创建和管理变得简单。通过定义 Cron 表达式,您可以轻松地安排任务在特定的时间执行,从而实现自动化运维。

官方文档链接

https://kubernetes.io/docs/tasks/job/automated-tasks-with-cron-jobs/

3.5.1应用场景

  • 通知系统:定期发送系统状态通知、日志报告或其他类型的定期通知。

  • 数据备份:执行数据库备份、文件备份等周期性数据保护任务。

  • 定期清理:清理日志文件、临时文件或其他不再需要的数据。

  • 监控和报告:定期执行监控任务并生成报告。

3.5.2部署CronJob 

如何在 Kubernetes 中创建一个 CronJob,该 CronJob 每分钟执行一次打印 "Hello" 的任务。

示例:每分钟打印hello

apiVersion: batch/v1beta1
kind: CronJob
metadata:name: hello
spec:schedule: "*/1 * * * *"jobTemplate:spec:template:spec:containers:- name: helloimage: busyboximagePullPolicy: IfNotPresentargs:- /bin/sh- -c- date; echo Hello from the Kubernetes clusterrestartPolicy: OnFailure
  • apiVersion: 指定 Kubernetes API 的版本。
  • kind: 指定资源类型为 CronJob。
  • metadata: 包含 CronJob 的名称。
  • spec: 包含 CronJob 的规格。
  • schedule: 使用 Cron 表达式定义任务的执行时间表。在这个例子中,"*/1 * * * *" 表示每分钟执行一次。
  • jobTemplate: 定义了 Job 模板,它包含了执行任务的 Pod 规格。
  • containers: 定义了容器的名称、镜像和其他参数。
  • args: 执行的命令,这里使用 /bin/sh 打印当前日期和 "Hello" 消息。
  • restartPolicy: 设置为 OnFailure,表示只在容器失败时重启。
kubectl apply -f cronjob.yamlkubectl get cronjob

使用 kubectl get cronjob 命令查看 CronJob 的状态,包括调度时间、活动状态和最近一次执行的时间。

查看执行的 Pod

使用 kubectl get pods 命令查看由 CronJob 创建的 Pod。这些 Pod 通常会在任务完成后标记为 Completed

kubectl get pods

使用 kubectl logs 命令查看特定 Pod 的日志输出。可以进入其中一个pod,可以看到打印的日期和 "Hello" 消息。

报错解决

#如果报错:Error from server (Forbidden): Forbidden (user=system:anonymous, verb=get, resource=nodes, subresource=proxy) ( pods/log hello-1621587780-c7v54)#解决办法:绑定一个cluster-admin的权限
kubectl create clusterrolebinding system:anonymous --clusterrole=cluster-admin --user=system:anonymous

如果在查看日志时遇到权限问题,可以通过创建一个 clusterrolebinding 来授予 system:anonymous 用户 cluster-admin 权限。这通常不推荐,因为它会降低集群的安全性。在生产环境中,应该使用更细粒度的权限控制。

通过这些步骤,可以在 Kubernetes 中设置周期性任务,例如定期备份、日志清理或发送通知。CronJob 提供了一种简单的方式来自动化这些重复性任务。

3.5.3cronjob其它可用参数的配置

cronjob其它可用参数的配置spec:concurrencyPolicy: Allow			#要保留的失败的完成作业数(默认为1)schedule: '*/1 * * * *'			#作业时间表。在此示例中,作业将每分钟运行一次startingDeadlineSeconds: 15		#pod必须在规定时间后的15秒内开始执行,若超过该时间未执行,则任务将不运行,且标记失败successfulJobsHistoryLimit: 3		#要保留的成功完成的作业数(默认为3)terminationGracePeriodSeconds: 30	#job存活时间 默认不设置为永久jobTemplate:						#作业模板。这类似于工作示例

四、温故而知新

无状态:
1)deployment 认为所有的pod都是一样的
2)不用考虑顺序的要求
3)不用考虑在哪个node节点上运行
4)可以随意扩容和缩容 有状态
1)实例之间有差别,每个实例都有自己的独特性,元数据不同,例如etcd,zookeeper
2)实例之间不对等的关系,以及依靠外部存储的应用。常规service和无头服务区别
service:一组Pod访问策略,提供cluster-IP群集之间通讯,还提供负载均衡和服务发现。
Headless service:无头服务,不需要cluster-IP,而是直接以DNS记录的方式解析出被代理Pod的IP地址。

deployment

部署无状态应用的管理RS 和 pod 创建Pod ,主要是维护pod副本数量与期望状态相同
创建和删除pod时并行执行、升级时是先创建一部分,再删除一部分

SatefulSet

部署有状态的应用,每个pod的唯一(名称)且不变的, 每个pod拥有自己专属的持久化的存储(Pvc和PV)

在k8s集群内部可以通过

(pod name).{service name). (namespace).svc.cluster.local 解析出pod的IP(基于headless service 和coreDNS)
创建和删除pod是有顺序的(串行执行的),升级时串行执行的,会删除旧的pod,再创建新pod删除和升级时逆序执行的(先从标识符最大的n-2开始,一直到最小的0)

Daemonset

理论上在k8s集群的所有node节点上创建相同的pod(无论node节点什么时候加入到k8s集群),但是会受到node节点上污点影响

job

部署一次性任务的pod,正常完成后容器立即退出并且不重启容器(restartpolicy不设置Always),也不会重建异常,完成后重试任务重建次数根据backofflimit 配置指定(默认为6次)

 cronjob

周期性的部署任务的pod,正常完成后容器会立即退出并不会重启容器(restartPolicy 不设置Always),也不会重建pod,schedule 配置周期性的事件表* * * * *(分时日月周)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/341774.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

引擎:UI

一、控件介绍 Button 按钮 创建一个按钮 按钮禁用 精灵模式 颜色模式 缩放模式 绑定点击事件 EditBox 输入框 Layout 布局 支持水平排列、垂直排列、背包排列 PageView 页面视图 ProgressBar 进度条 RichText 富文本 绑定点击事件 事件可以被其它标签包裹 图文混排 Scroll…

Redis位图

简介 在我们平时开发过程中&#xff0c;会有一些bool型数据需要存取&#xff0c;比如用户一年的签到记录&#xff0c;签了是1&#xff0c;没签是0&#xff0c;要记录365天。如果使用普通的key/value&#xff0c;每个用户要记录365个&#xff0c;当用户上亿的时候&#xff0c;需…

本地知识库开源框架Fastgpt、MaxKB产品体验

本地知识库开源框架Fastgpt、MaxKB产品体验 背景fastgpt简介知识库共享部署 MaxKB总结 背景 上一篇体验了Quivr、QAnything两个开源知识库模型框架&#xff0c;这次介绍两款小众但是体验比较好的产品。 fastgpt 简介 FastGPT 是一个基于 LLM 大语言模型的知识库问答系统&am…

kubeedge v1.17.0部署教程

文章目录 前言一、安装k8s平台二、部署kubeedge1.部署MetalLB(可选)2.cloud3.edge4. 部署nginx到edge端 总结参考 前言 本文主要介绍kubeedge v1.17.0的安装过程 主要环境如下表 应用版本centos7.0k8s1.28.2kubeedge1.17.0docker24.0.8centos7.0 一、安装k8s平台 本文主要参…

大数据学习问题记录

问题记录 node1突然无法连接finalshell node1突然无法连接finalshell 今天我打开虚拟机和finalshell的时候&#xff0c;发现我的node1连接不上finalshell,但是node2、node3依旧可以链接&#xff0c;我在网上找了很多方法&#xff0c;但是是关于全部虚拟机连接不上finalshell&a…

跨域请求解决方法----不允许有多个 ‘Access-Control-Allow-Origin‘ CORS 头

后端配置了代码&#xff1a; spring:application:name: spzx-server-gatewaycloud:nacos:discovery:server-addr: localhost:8848gateway:discovery:locator:enabled: trueglobalcors:cors-configurations:[/**]:allowedOriginPatterns: "*"# 允许请求中携带的头信息…

【Linux系统】进程信号

本篇博客整理了进程信号从产生到处理的过程细节&#xff0c;通过不同过程中的系统调用和其背后的原理&#xff0c;旨在让读者更深入地理解操作系统的设计与软硬件管理手段。 目录 一、信号是什么 1.以生活为鉴 2.默认动作与自定义动作 3.信号的分类、保存、产生 二、产生…

JavaWeb1 Json+BOM+DOM+事件监听

JS对象-Json //Json 字符串转JS对象 var jsObject Json.parse(userStr); //JS对象转JSON字符串 var jsonStr JSON.stringify(jsObject);JS对象-BOM BOM是浏览器对象模型&#xff0c;允许JS与浏览器对话 它包括5个对象&#xff1a;window、document、navigator、screen、hi…

Linux漏洞SSL/TLS协议信息泄露漏洞(CVE-2016-2183) - 非常危险(7.5分) 解决办法!升级openssl

漏洞情况 详细描述 TLS是安全传输层协议&#xff0c;用于在两个通信应用程序之间提供保密性和数据完整性。 TLS, SSH, IPSec协商及其他产品中使用的IDEA、DES及Triple DES密码或者3DES及 Triple 3DES存在大约四十亿块的生日界&#xff0c;这可使远程攻击者通过Sweet32攻击&…

俄罗斯人有哪些常用的口头禅,柯桥零基础俄语培训

Хватит! 够了&#xff01; -Хватит, не стоит больше шуметь! 够了, 不要再吵了! -Это тебя не касается! 这与你无关&#xff01; Блин! 靠&#xff01; Блин这个词绝对是俄罗斯人最爱用的口语表达之一&#xff0c;…

【文档智能】符合人类阅读顺序的文档模型-LayoutReader原理及权重开源

引言 阅读顺序检测旨在捕获人类读者能够自然理解的单词序列。现有的OCR引擎通常按照从上到下、从左到右的方式排列识别到的文本行&#xff0c;但这并不适用于某些文档类型&#xff0c;如多栏模板、表格等。LayoutReader模型使用seq2seq模型捕获文本和布局信息&#xff0c;用于…

Vue——组件数据传递与props校验

文章目录 前言组件数据传递的几种类型简单字符串类型数据专递其他类型数据(数字、数组、对象)传递注意事项 数据传递值校验限定数据类型 type给定默认值 default指定必选项 required 前言 组件与组件之间并不是完全独立的&#xff0c;他们之间可以进行一些数据的传递操作。传递…

HarmonyOS应用开发学习历程(1)初识DevEco Studio

1.create project Bundle name&#xff1a;包名&#xff0c;标识应用程序&#xff0c;默认应用ID也使用该名 Compile SDK&#xff1a;编译时API版本 2.工程目录 AppScope&#xff1a;应用全局所需资源 entry&#xff1a;应用的主模块&#xff0c;含代码、资源 hvigor&#…

产品经理的AI大模型实战指南:驾驭未来,引领创新

前言&#xff1a; 在数字化浪潮席卷全球的今天&#xff0c;AI大模型正以其惊人的潜力和速度&#xff0c;重塑着各行各业的生态。对于产品经理而言&#xff0c;如何在这场变革中站稳脚跟&#xff0c;甚至引领潮流&#xff0c;成为了一个亟待解决的问题。为此&#xff0c;我们特…

使用`War`包部署`Jenkins`(超级详细)

使用War包部署Jenkins(超级详细) 别着急&#xff0c;你看这年复一年&#xff0c;春光不必趁早&#xff0c;冬霜不会迟到。过去的都会过去&#xff0c;该来的都在路上&#xff0c;一切都是刚刚好。 网站说明 https://get.jenkins.io/war-stable/ war包下载地址 https://www.jenk…

云端狂飙:Django项目部署与性能优化的极速之旅

Hello&#xff0c;我是阿佑&#xff0c;这次阿佑将手把手带你亲自踏上Django项目从单机到云端的全过程&#xff0c;以及如何通过Docker实现项目的无缝迁移和扩展。不仅详细介绍了Docker的基本概念和操作&#xff0c;还深入探讨Docker Compose、Swarm和Kubernetes等高级工具的使…

【C语言】文件操作(下卷)

前言 在上一卷中&#xff0c;我们知道了文件指针、文件的打开和关闭&#xff08;打开其他位置的文件&#xff09;、文件的顺序读写&#xff08;其中的fputc()、fgetc()&#xff09;&#xff0c;这一卷中&#xff0c;将继续讲解文件操作未讲到的地方。 内容有点多&#xff0c;…

如何在 Java 中使用 JOptionPane 显示消息对话框

在 Java 开发中&#xff0c;JOptionPane 是一个非常实用的类&#xff0c;可以用来显示各种类型的对话框&#xff0c;例如信息对话框、警告对话框、错误对话框等。今天&#xff0c;我们将深入探讨如何使用 JOptionPane.showMessageDialog 方法来显示消息对话框&#xff0c;以及如…

RPA-UiBot6.0数据采集机器人(海量信息一网打尽)内附RPA师资培训课程

前言 友友们是否曾为海量的数据信息而头疼&#xff0c;不知道如何从中精准抓取你所需的数据&#xff1f;小北的这篇博客将为你揭晓答案&#xff0c;让我们一起学习如何运用RPA数据采集机器人&#xff0c;轻松实现海量信息的快速抓取与整理&#xff0c;助力你的工作效率翻倍&…

OrangePi 安装 CANN 套件及体验 AI 应用

CANN 环境安装&#xff08;桌面端跳过&#xff09; CANN 环境存在于下载页面的官方工具中&#xff0c;点击下载即可进入下载页面。 CANN 安装包就在倒数第二项&#xff0c;下载后传到开发板上。 给 CANN 安装包赋予运行权限并运行即可。 chmod x Ascend-cann-toolkit_7.0.0_l…