云原生之深入解析Kubernetes本地持久化存储方案OpenEBS LocalPV的最佳实践

一、K8s 本地存储

  • K8s 支持多达 20+ 种类型的持久化存储,如常见的 CephFS 、Glusterfs 等,不过这些大都是分布式存储,随着社区的发展,越来越多的用户期望将 K8s 集群中工作节点上挂载的数据盘利用起来,于是就有了 local 类型持久卷的支持。
  • 可以把 local 类型持久卷称作:Local Persistent Volume,简称 LocalPV。LocalPV 所代表的是某个被挂载的本地(工作节点)存储设备,例如磁盘、分区或者目录,因此 LocalPV 并不能像分布式存储一样可靠,但速度极快,这也决定了 LocalPV 使用场景:I/O 敏感度高且能够容忍小概率数据丢失现象。
  • K8s 官方文档里有一个使用 LocalPV 的简单示例,简单总结下 K8s LocalPV 的特点:
    • 只能用作静态创建的持久卷,不支持动态供应,也就是说必须通过手动的方式创建 PV;
    • 与 hostPath 卷相比,LocalPV 能够以持久和可移植的方式使用,而无需手动将 Pod 调度到节点。系统通过查看 PV 的节点亲和性(nodeAffinity)配置,就能了解卷的节点约束。
    • 如果想使用存储类来自动绑定 PVC 和 PV,则必须将 StorageClass 配置成延迟绑定。
  • 示例如下:
apiVersion: storage.K8s.io/v1
kind: StorageClass
metadata:name: local-storage
provisioner: kubernetes.io/no-provisioner
volumeBindingMode: WaitForFirstConsumer
  • 其中 volumeBindingMode: WaitForFirstConsumer 属性即为延迟卷绑定,它使得调度器在为 PVC 选择一个合适的 PV 时能考虑到所属 Pod 的调度限制。举个例子,假设创建了两个 PV 分别为 PV1、PV2,然后创建一个 Pod 并申明一个 PVC 叫 PVC1 ,PV1 和 PV2 同时满足 PVC1 的要求,但此时存储类并不能马上将 PVC1 与 PV1 或 PV2 中任何一个 PV 进行绑定,而是要考虑 Pod 的调度策略。如果 Pod 指定了节点亲和性必须要部署到 PV1 所在节点,则 PVC1 就需要跟 PV1 进行绑定,而不能与 PV2 进行绑定。
  • 可以发现,当 Pod 需要使用 LocalPV 时,PVC 与 PV 的绑定就需要考虑 Pod 的调度情况,因此 LocalPV 的存储类无法支持立即绑定,只能将绑定时机延迟到 Pod 调度时进行(WaitForFirstConsumer)。

二、OpenBES 本地存储

① OpenBES 简介

  • 由于 K8s LocalPV 的使用限制无法满足生产需求,因此就需要寻找替代方案,好在已经有人实现了更强大的 LocalPV 存储方案:OpenEBS LocalPV。
  • OpenEBS 官网地址为:OpenEBS 官网。
  • OpenEBS 可以将 K8s 工作节点上的任何可用存储转换为本地或分布式(也称为复制)持久卷。
  • OpenEBS 最初由 MayaData 构建并捐赠给 CNCF,现在是 CNCF 沙盒项目。

② 卷类型

  • OpenEBS 支持两种卷类型:本地卷、复制卷,架构如下:

在这里插入图片描述

  • 本地卷能够直接将工作节点上插入的数据盘抽象为持久卷,供当前节点上的 Pod 挂载使用。而复制卷则相对复杂一些,OpenEBS 使用其内部的引擎为每个复制卷创建一个微服务,在使用时,有状态服务将数据写入 OpenEBS 引擎,引擎将数据同步复制到集群中的多个节点,从而实现了高可用。

③ 本地卷

  • 由于本次 OpenEBS 的落地实践针对于本地持久化存储,故主要分析 OpenEBS 本地卷的使用,OpenEBS 本地卷支持多种类型:Hostpath、Device、LVM、ZFS、Rawfile。每种类型各有特点,都有自己的适用场景,比如相较于 K8s 原生 Hostpath,OpenEBS 的 Hostpath 能够支持将外挂的数据盘目录作为 Hostpath 目录,从而避免 Pod 可能将宿主机目录写满的问题。Device 能够将块设备用于 LocalPV 的使用,速度极快。而借助 LVM 的能力,则可以更灵活的使用 LocalPV,它可以支持 PV 的动态扩缩容操作。
  • OpenEBS 为其支持的每种类型都实现了一个单独的项目,以使用块设备为例,介绍 OpenEBS LocalPV 使用实践,项目地址为:device-localpv,接下来以 Device-LocalPV 来指代它。

④ 实践

  • 环境准备:
    • 使用 minikube 来搭建 K8s 集群环境,OpenEBS 官方要求 K8s 版本为 1.20+,实测下来 1.19 版本也是没有问题的,不过建议优先选用推荐版本:
    • 使用 VirtualBox 作为驱动启动两个 minikube 节点:minikube、minikube-m02(可以参考:https://minikube.sigs.k8s.io/docs/drivers/virtualbox/);
    • minikube 节点挂载一块 4GB 磁盘,minikube-m02 节点分别挂载一块 4GB、一块 8GB 磁盘。
  • 安装 Device-LocalPV:
    • 由于 OpenEBS Device-LocalPV 本身即为云原生而开发的应用,因此安装起来非常简单,只需要一条 kubectl apply 命令即可。
kubectl apply -f https://raw.githubusercontent.com/openebs/device-localpv/develop/deploy/device-operator.yaml
  • 执行以上命令后,会得到如下几个相关 Pod:
NAMESPACE     NAME                               READY   STATUS    RESTARTS   AGE
kube-system   openebs-device-controller-0        2/2     Running   0          2m23s
kube-system   openebs-device-node-4wld7          2/2     Running   0          2m23s
kube-system   openebs-device-node-p2r6m          2/2     Running   0          2m23s
    • 确保这几个 Pod 全部处于 Running 状态,就表示 Device-LocalPV 安装成功,如果安装失败,则需要根据 kubectl describe 命令的描述信息进行排查。
  • 准备磁盘:
    • Device-LocalPV 能够直接接管节点上的块设备,有时候节点上可能同时插入多块数据盘,而这些数据盘中,也许某些数据盘我们不想当作 LocalPV 来使用,为了能够区分哪些块设备可以供 Device-LocalPV 来使用,需要在对应的块设备上创建一个(~10MiB)Meta 分区,用于存储磁盘标识信息,Meta 分区有如下要求:
      • 是块设备的第一个分区(ID_PART_ENTRY_NUMBER=1);
      • 不能被格式化成任何文件系统;
      • 不能设置 flags 分区标记。
    • 操作命令如下:
## 在 minikube 节点上执行如下命令
$ sudo parted /dev/sdb mklabel gpt
$ sudo parted /dev/sdb mkpart test-device 1MiB 10MiB## 在 minikube-m02 节点执行如下命令
$ sudo parted /dev/sdb mklabel gpt
$ sudo parted /dev/sdb mkpart test-device 1MiB 10MiB
$ sudo parted /dev/sdc mklabel gpt
$ sudo parted /dev/sdc mkpart test-device 1MiB 10MiB
    • 以上分别对 minikube、minikube-m02 两个节点上的块设备进行了 Meta 分区的操作,其中 /dev/sdb、/dev/sdc 就是节点上挂载的块设备名,需要根据自己实际情况来指定。其中三块盘的 Meta 分区名都叫 test-device 是有意而为之,接下来创建存储类时会用到。
  • 创建存储类:
    • 既然 Device-LocalPV 支持动态供应,那么必然少不了创建存储类的步骤,将以下 yaml 文件保存为 sc.yaml 然后通过 kubectl apply -f sc.yaml 创建存储类:
apiVersion: storage.K8s.io/v1
kind: StorageClass
metadata:name: openebs-device-sc
allowVolumeExpansion: false
parameters:devname: "test-device"
provisioner: device.csi.openebs.io
volumeBindingMode: WaitForFirstConsumer
    • 存储类 parameters 字段需要指定 devname,其值为上面在为块设备分区时指定的分区名称 test-device,存储类在创建 PV 的时候正是根据这个分区名的匹配,来找到哪些块设备是供 Device-LocalPV 来使用的。
  • 创建 StatefulSet 来申请使用 LocalPV:
    • StatefulSet 以及相关资源定义如下:
apiVersion: v1
kind: Service
metadata:name: nginxlabels:app: nginx
spec:ports:- port: 80name: webclusterIP: Noneselector:app: nginx
---
apiVersion: apps/v1
kind: StatefulSet
metadata:name: hello
spec:selector:matchLabels:app: helloserviceName: "nginx"replicas: 2template:metadata:labels:app: hellospec:terminationGracePeriodSeconds: 1containers:- name: htmlimage: busyboximagePullPolicy: IfNotPresentcommand:- sh- -c- 'while true; do echo "`date` [`hostname`] Hello from OpenEBS Local PV." >> /mnt/store/index.html; sleep $(($RANDOM % 5 + 300)); done'volumeMounts:- mountPath: /mnt/storename: csi-devicepv- name: webimage: K8s.gcr.io/nginx-slim:0.8imagePullPolicy: IfNotPresentports:- containerPort: 80name: webvolumeMounts:- name: csi-devicepvmountPath: /usr/share/nginx/htmlvolumeClaimTemplates:- metadata:name: csi-devicepvspec:accessModes: ["ReadWriteOnce"]storageClassName: "openebs-device-sc"resources:requests:storage: 1Gi
    • 创建一个 Service 和一个名叫 hello 的 StatefulSet,重点关注 StatefulSet,它启动两个副本,并通过 volumeClaimTemplates 来申请 1Gi 大小的 PVC。通过 kubectl apply 命令安装以上文件资源后,可以看到,两个 Pod 分别被调度到了不同节点上:
# 查看 Pod 调度情况
➜ kubectl get pod -o wide
NAME      READY   STATUS    RESTARTS   AGE     IP           NODE           NOMINATED NODE   READINESS GATES
hello-0   2/2     Running   0          4m13s   10.244.1.3   minikube-m02   <none>           <none>
hello-1   2/2     Running   0          2m42s   10.244.0.3   minikube       <none>           <none># 查看 PVC 资源
➜ kubectl get pvc -o wide
NAME                   STATUS   VOLUME                                     CAPACITY   ACCESS MODES   STORAGECLASS        AGE     VOLUMEMODE
csi-devicepv-hello-0   Bound    pvc-042661c8-c000-4dde-9950-2b6859d5f273   1Gi        RWO            openebs-device-sc   4m46s   Filesystem
csi-devicepv-hello-1   Bound    pvc-26f92829-e0d4-4520-86da-2d7741cd68c2   1Gi        RWO            openebs-device-sc   3m15s   Filesystem# 查看 PV 资源
➜ kubectl get pv -o wide
NAME                                       CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS   CLAIM                          STORAGECLASS        REASON   AGE   VOLUMEMODE
pvc-042661c8-c000-4dde-9950-2b6859d5f273   1Gi        RWO            Delete           Bound    default/csi-devicepv-hello-0   openebs-device-sc            18m   Filesystem
pvc-26f92829-e0d4-4520-86da-2d7741cd68c2   1Gi        RWO            Delete           Bound    default/csi-devicepv-hello-1   openebs-device-sc            17m   Filesystem
    • 现在分别登录两台 minikube 主机节点,使用 fdisk 命令查看两个节点磁盘使用情况:

在这里插入图片描述

    • 左侧为 minikube 节点,右侧为 minikube-m02 节点,可以看到 PV 创建成功后会在对应节点的块设备上创建与 PV 相同大小的分区来提供 LocalPV 的支持,而这个分区的生命周期管理工作都是由 Device-LocalPV 来完成的,它会随着 PV 的创建而创建,随着 PV 的删除而销毁。
    • 至此,就完成了 OpenEBS Device-LocalPV 实践演练。正常来说,通过上面的实践步骤,应该能顺利的搭建并使用 OpenEBS Device-LocalPV。但也许会遇到一些奇怪的问题,接下来就分析几个在 OpenEBS Device-LocalPV 落地实践过程可能会遇到的坑。

⑤ 问题分析

  • parted 命令版本问题:
    • 根据经验,parted 命令不同版本表现可能不一致。如下所示,使用两个不同版本的 parted 工具执行相同命令,来对块设备进行 Meta 分区操作,得到的结果却不一样:

在这里插入图片描述
在这里插入图片描述

    • 可以发现,截图中 3.3 版本 parted 命令分区会产生 flag(msftdata),下面 3.1 版本的 parted 命令分区则没有产生 flag。OpenEBS Device-LocalPV 规定 Meta 分区不能有 flag,如果产生 flag 则 Device-LocalPV 会将这个块设备忽略,不进行使用。
    • 为了保证执行 parted 命令对磁盘进行分区时,得到预期结果,可以总是进入 OpenEBS Daemonset 的容器内部来使用 OpenEBS 提供的 parted 命令进行分区。这样就保证了与 Device-LocalPV 工作时内部使用的 parted 命令版本一致,不会出现一些意料之外的问题。Daemonset 所对应的 Pod 即为上面的 openebs-device-node-4wld7、openebs-device-node-p2r6m 两个 Pod,OpenEBS 启动时会在每个节点上启动一个 Daemonset 工作负载,用来操作节点块设备提供 LocalPV 支持。
  • PV 动态扩容问题:OpenEBS Device-LocalPV 目前还不支持扩容操作,因此在创建存储类时需要指定 allowVolumeExpansion 属性值为 false,以此来标记这个存储类所创建出来的 PV 不支持动态扩容操作。
  • PV 可能无法创建成功问题:
    • 可能会遇到 PVC 所申请的容量刚好等于块设备剩余容量时,PV 无法创建成功,PVC 一直处于 Pending 状态的问题。
    • 假设现在只有一个节点,节点上也仅仅只有一个块设备供 Device-LocalPV 使用,其容量为 10Gi。如果连续申请 4 个 PVC,其容量依次为 1G、3G、3G、1G,分别对应如下截图(fdisk 命令显示结果)中 sdb2、sdb3、sdb4、sdb5 4 个分区。

在这里插入图片描述

    • 现在如果删除第一个容量为 3G 的 PVC,Device-LocalPV 则会自动删除 /dev/sdb3 这个分区。可是,此时如果尝试再次创建一个 3G 的 PVC,这个 PVC 将永远无法创建成功,一直处于 Pending 状态。当每创建一个 PVC 时,存储类都会通过 Device-LocalPV 在节点的块设备上新创建一个和 PVC 中申请的容量相等的一个磁盘分区出来,从截图中可以看出,这个分区的 Start 、End 是从小到大且连续的。新创建的 3G 的 PVC 容量等于 /dev/sdb3 分区容量,理论上应该是可以创建成功的。
    • 分析 Device-LocalPV 源码可以发现,在计算节点上块设备剩余可用容量是否满足 PVC 申请的容量大小时,Device-LocalPV 通过 if tmp.SizeMiB > partSize 这条语句来进行判断,其中 tmp.SizeMiB 为块设备剩余可用容量,partSize 为 PVC 申请容量,只有块设备剩余容量大于 PVC 申请容量时,才会进行分区操作,如果没有满足 PVC 申请容量的可用分区,PVC 就会一直处于 Pending 状态。

在这里插入图片描述

    • 由此可见,将 if tmp.SizeMiB > partSize 改成 if tmp.SizeMiB >= partSize 即可解决这个问题,另外,在阅读源码的过程中,还可以发现 Device-LocalPV 在计算块设备可用分区时,对于分区大小的计算会涉及从 Bytes 到 Mib 的单位转换操作:

在这里插入图片描述

    • beginBytes 、endBytes 对应的就是上面 fdisk 命令截图中的 Start 、End,此时如果分区没有对齐,则会出现浮点数计算精度丢失问题,其中 beginMib 会被 math.Ceil 向上取整,endMib 会被 math.Floor 向下取整,最终得到的 sizeMib 有可能小于实际剩余可用空间,这样就导致可能会出现磁盘剩余容量满足 PVC 申请容量,而 PVC 却无法创建成功现象,因此在创建 PVC 时应尽量申请 1024 整数倍大小的容量。

三、CSI

  • 在 K8s 中,如果 K8s 内置的存储功能不满足我们的生产需求,则可以通过一种叫作 CSI 的插件机制来对其进行扩展,而 Device-LocalPV 正是采用这种机制来实现的。
  • CSI 是 Container Storage Interface 的简称,是 K8s 官方定义的容器存储接口规范,它试图定义一个统一的业界标准,专门用来扩展容器编排系统的存储能力。

① 基础架构

  • 一个 CSI 插件包含两个主体部分 External Components 和 Custom Components,其中 External Components 由 K8s 官方提供,而 Custom Components 则由编写插件的作者来提供。这两个 Components 又各自包含 3 个组件,一起协同工作。
  • CSI 基本架构如下:

在这里插入图片描述

② 工作流程

  • 首先,在 CSI 插件启动时,External Components 中的 Driver Registrar 组件最先开始工作,它通过与 Custom Components 中的 Identity 组件进行通信,获取到 CSI 插件的基本信息,并将其注册到 kubelet 中。
  • 而 External Components 中的 Provisioner 组件则通过 Watch 机制,监听了 APIServer 中 PVC 对象的创建,一旦有新的 PVC 被创建,Provisioner 就会与 Custom Components 中的 Controller 组件进行通信,让其创建 PV 相关资源。
  • 创建完 PV,下一步就到了 Attach 阶段,而 Attach 操作正对应了 External Components 中的 Attacher 组件,它同样会与 Custom Components 中的 Controller 组件进行通信,协同完成 Attach 操作。
  • 而最后一步 Mount 操作,则由 Node 节点上的 kubelet 直接调用 External Components 中的 Node 组件来完成。至此,Pod 内部应用就可以使用主机节点上挂载的 LocalPV 了。

四、Device-LocalPV

① 部署

  • 要分析一个程序的执行流程,当然要从程序启动入口开始,而 OpenEBS 是一个面向云原生的应用,那么首先要看的,就是项目的部署方式,OpenEBS Device-LocalPV 项目部署 yaml 文件也在其项目的 git 仓库中。
  • 可以看到,部署文件中最重要的两个资源分别是一个名为 openebs-device-controller 的 StatefulSet,和一个名为 openebs-device-node 的 DaemonSet。
  • 在 StatefulSet 中启动了两个容器,分别是 K8s 官方提供的 External Provisioner 组件,和由 OpenEBS 开发的 Custom Controller 组件,这两个组件被放在一个 Pod 中协同工作。
  • 而在 DaemonSet 中同样也启动了两个容器,分别是 K8s 官方提供的 External Driver Registrar 组件,和由 OpenEBS 开发的 Custom Node 组件。那么,CSI 机制中的 External Attacher 组件去哪里了?实际上 LocalPV 并没有 Attach 操作,创建出来后只需要一步 Mount 操作即可使用,所以也就没有必要部署这个组件了。
  • 可能我们会好奇 External 组件和 Custom 对应组件之间如何来进行通信?根据上面提供的 Device-LocalPV 项目部署 yaml 文件中的内容,就不难发现,里面有 unix:///xxx/csi.sock 字样,实际上它们之间的通信都是依靠基于 Unix socket 的 gRPC 来进行的,这样即实现了组件间的解耦,又能高效进行通信。

② 组件

  • 知道 OpenEBS Device-LocalPV 项目都部署了哪些组件,接下来通过阅读源码来分析程序执行流程。无论是 StatefulSet 还是 DaemonSet,Device-LocalPV 程序启动入口文件都是同一个,程序启动后,在 main 函数里会调用 run 函数,run 函数定义如下:
func run(config *config.Config) {if config.Version == "" {config.Version = version.Current()}klog.Infof("Device Driver Version :- %s - commit :- %s", version.Current(), version.GetGitCommit())klog.Infof("DriverName: %s Plugin: %s EndPoint: %s NodeID: %s",config.DriverName,config.PluginType,config.Endpoint,config.NodeID,)if len(config.IgnoreBlockDevicesRegex) > 0 {device.DeviceConfiguration.IgnoreBlockDevicesRegex = regexp.MustCompile(config.IgnoreBlockDevicesRegex)}err := driver.New(config).Run()if err != nil {log.Fatalln(err)}os.Exit(0)
}
  • 值得注意的是 err := driver.New(config).Run() 这句代码,通过 config 参数启动了一个 Driver 并执行 Run 方法,可以跟踪到 New 函数内部来查看其实现:
func New(config *config.Config) *CSIDriver {driver := &CSIDriver{config: config,cap:    GetVolumeCapabilityAccessModes(),}switch config.PluginType {case "controller":driver.cs = NewController(driver)case "agent":driver.ns = NewNode(driver)}driver.ids = NewIdentity(driver)return driver
}
  • 可以发现,New 函数内部会通过 config 创建一个 CSIDriver 对象,这个对象会根据配置参数注册 Controller 组件或 Node 组件(在 Device-LocalPV 项目中 agent 和 Node 等价),而这两个组件分别对应的就是 StatefulSet 和 DaemonSet,也就是说,Controller 组件会以 StatefulSet 的方式启动,Node 组件则会以 DaemonSet 方式启动。
  • ** Identity 组件**:
    • 根据上面的源码可以发现,不管启动 Controller 或 Node 中的哪个组件,Identity 组件都会被注册进来(driver.ids = NewIdentity(driver)),因为将 Device-LocalPV 实现的 CSI 插件分开成两个工作负载来部署,而它们都需要注册给 K8s,Identity 组件正是干这件事情的。
    • Identity 实现如下,定义了 3 个方法,分别是 GetPluginInfo 、Probe 、GetPluginCapabilities:
package driverimport ("github.com/container-storage-interface/spec/lib/go/csi""github.com/openebs/device-localpv/pkg/version""golang.org/x/net/context""google.golang.org/grpc/codes""google.golang.org/grpc/status"
)// identity is the server implementation
// for CSI IdentityServer
type identity struct {driver *CSIDriver
}// NewIdentity returns a new instance of CSI
// IdentityServer
func NewIdentity(d *CSIDriver) csi.IdentityServer {return &identity{driver: d,}
}// GetPluginInfo returns the version and name of
// this service
//
// This implements csi.IdentityServer
func (id *identity) GetPluginInfo(ctx context.Context,req *csi.GetPluginInfoRequest,
) (*csi.GetPluginInfoResponse, error) {if id.driver.config.DriverName == "" {return nil, status.Error(codes.Unavailable, "missing driver name")}if id.driver.config.Version == "" {return nil, status.Error(codes.Unavailable, "missing driver version")}return &csi.GetPluginInfoResponse{Name: id.driver.config.DriverName,// TODO// verify which version needs to be used:// config.version or version.Current()VendorVersion: version.Current(),}, nil
}// TODO
// Need to implement this
//
// # Probe checks if the plugin is running or not
//
// This implements csi.IdentityServer
func (id *identity) Probe(ctx context.Context,req *csi.ProbeRequest,
) (*csi.ProbeResponse, error) {return &csi.ProbeResponse{}, nil
}// GetPluginCapabilities returns supported capabilities
// of this plugin
//
// Currently it reports whether this plugin can serve
// the Controller interface. Controller interface methods
// are called dependant on this
//
// This implements csi.IdentityServer
func (id *identity) GetPluginCapabilities(ctx context.Context,req *csi.GetPluginCapabilitiesRequest,
) (*csi.GetPluginCapabilitiesResponse, error) {return &csi.GetPluginCapabilitiesResponse{Capabilities: []*csi.PluginCapability{{Type: &csi.PluginCapability_Service_{Service: &csi.PluginCapability_Service{Type: csi.PluginCapability_Service_CONTROLLER_SERVICE,},},},{Type: &csi.PluginCapability_Service_{Service: &csi.PluginCapability_Service{Type: csi.PluginCapability_Service_VOLUME_ACCESSIBILITY_CONSTRAINTS,},},},},}, nil
}
    • 其中 GetPluginInfo 方法返回插件的名称和版本号,Probe 顾名思义是一个探针程序,K8s 可以根据这个探针检查插件是否正常工作。
    • 而 GetPluginCapabilities 方法返回当前插件的能力,用告诉 K8s 这个 CSI 插件实现了哪些功能,比如 Device-LocalPV 项目没有实现 Attach 功能,当我们在创建 PVC 时指定了这个 CSI 插件作为存储类的 provisioner 时,K8s 就会自动跳过 Attach 阶段,直接进入 Mount 阶段。
    • 细心的读者可能已经发现每个方法上都有一行 // This implements csi.ControllerServer 注释,实际上这些方法的名称都是固定的,已经被 CSI 规范所定义,而编写 CSI 插件的作者只需要按照规范实现对应方法即可。
  • Controller 组件
    • 上面分析 CSI 基本架构的时候,讲到 External Provisioner 组件通过 Watch 机制监听 APIServer 中 PVC 对象的创建,一旦有新的 PVC 被创建,Provisioner 组件就会与 Custom Controller 组件进行通信,让其创建 PV 相关资源。这里我说的是创建 PV 相关资源,而不是创建 PV。所谓的 PV 相关资源则是一个 CRD,是编写 CSI 组件的开发人员自定义的一种资源类型,一个 CRD 会与一个 PV 对应,其生命周期也基本相同。这么做的原因是 PV 属于 K8s 内部资源,而 CSI 是一个通用规范,不止适用于 K8s,还适用于任何容器编排系统,因此 CSI 插件应该自己定义一种资源类型,来与 PV 进行对应。
    • 而这个与 PV 相对应的 CRD 叫作 devicevolumes.local.openebs.io,它定义在 Device-LocalPV 项目部署文件中,相当于 Device-LocalPV 自己管理的 PV 资源。一个典型的 devicevolumes.local.openebs.io 资源定义如下:
apiVersion: v1
items:
- apiVersion: local.openebs.io/v1alpha1kind: DeviceVolumemetadata:creationTimestamp: "2022-08-01T08:45:51Z"finalizers:- device.openebs.io/finalizergeneration: 3labels:kubernetes.io/nodename: minikube-m02name: pvc-8e659633-e052-439a-85eb-30a6d385a12bnamespace: openebsresourceVersion: "1715"uid: 540aa699-4f6f-487c-b38b-38f8b414bd7cspec:capacity: "1073741824"devname: device-localpvownerNodeID: minikubestatus:state: Ready
kind: List
metadata:resourceVersion: ""
    • 为了方便对节点块设备进行管理,Device-LocalPV 还定义了一个叫 devicenodes.local.openebs.io 的 CRD,这个 CRD 对应的是 K8s 工作节点,有几个供 Device-LocalPV 使用的节点,就有几个 devicenodes.local.openebs.io 资源,这个 CRD 中记录了当前节点上所有可用块设备。那么 devicevolumes.local.openebs.io 是在什么时候创建的呢?在 Custom Controller 组件中有一个关键方法叫 Createvolume,正是这个方法负责 PV 相关 CRD 的创建。
    • External Provisioner 组件监听到有新的 PVC 创建,就会执行组件内部的 Provision 方法,而在 Provision 方法内部,会通过 gRPC 的方式调用 Custom Controller 组件的 Createvolume 方法来创建 CRD,CRD 创建完成后,会由 Provisioner 来创建 PV 对象。相关代码实现如下:

在这里插入图片描述

  • Agent 组件
    • Device-LocalPV 组件是 Agent,它实际上就是 CSI 插件中的 Node 组件,从这个名称不难猜测,所有在节点宿主机上的操作,都会通过这个组件来完成。
    • 当 Provisioner 组件和 Controller 组件分别创建好 PV 和 CRD 以后,那么还剩下 2 个步骤,分别是在块设备上创建分区和将分区 Mount 到容器内部,这两个操作正是 Agent 组件的职责。
    • Agent 组件其构造函数如下:
// NewNode returns a new instance
// of CSI NodeServer
func NewNode(d *CSIDriver) csi.NodeServer {var ControllerMutex = sync.RWMutex{}// set up signals so we handle the first shutdown signal gracefullystopCh := signals.SetupSignalHandler()// start the device node resource watchergo func() {err := devicenode.Start(&ControllerMutex, stopCh)if err != nil {klog.Fatalf("Failed to start Device node controller: %s", err.Error())}}()// start the device volume  watchergo func() {err := volume.Start(&ControllerMutex, stopCh)if err != nil {klog.Fatalf("Failed to start Device volume management controller: %s", err.Error())}}()if d.config.ListenAddress != "" {exposeMetrics(d.config, stopCh)}return &node{driver: d,}
}
    • 可以发现在 Agent 组件内部,启动了两个 Goroutine,它们分别用来监听 devicenodes.local.openebs.io 和 devicevolumes.local.openebs.io 这两个 CRD,其内部都实现了 syncHandler 方法,根据 CRD 状态进行相应操作。
    • volume 的 syncHandler 主要逻辑如下:
func (c *VolController) syncHandler(key string) error {...// Get the Vol resource with this namespace/nameVol, err := c.VolLister.DeviceVolumes(namespace).Get(name)if K8serror.IsNotFound(err) {runtime.HandleError(fmt.Errorf("devicevolume '%s' has been deleted", key))return nil}if err != nil {return err}VolCopy := Vol.DeepCopy()err = c.syncVol(VolCopy)return err
}func (c *VolController) syncVol(vol *apis.DeviceVolume) error {...// if the status Pending means we will try to create the volumeif vol.Status.State == device.DeviceStatusPending {err = device.CreateVolume(vol)if err == nil {err = device.UpdateVolInfo(vol, device.DeviceStatusReady)} else if custError, ok := err.(*apis.VolumeError); ok && custError.Code == apis.InsufficientCapacity {vol.Status.Error = custErrorreturn device.UpdateVolInfo(vol, device.DeviceStatusFailed)}}return err
}
    • 可以看到,syncHandler 方法会将查询到的 devicevolumes.local.openebs.io 信息传递给 syncVol 方法,而这个方法中有一行非常关键的代码 device.CreateVolume(vol),调用此方法的作用正是根据 CRD 的信息,在块设备上创建出真正的分区。
    • 分区一旦被成功创建,那么就只剩下最后一个步骤 Mount 操作了,Mount 操作由 PV 所在节点的 kubelet 直接调用 Agent 组件的 NodePublishVolume 方法来完成。值得注意的是,在部署 Device-LocalPV 项目的 yaml 文件中,Agent 组件所在容器的 volumeMounts 属性中有一个 mountPropagation: “Bidirectional” 配置,其作用是为了使在容器内部执行的 Mount 命令能够向上传播到宿主机上。所以尽管Agent 组件运行在容器中,但在其内部执行的 Mount 命令依然能够在节点上生效。

③ 调度策略

  • Device-LocalPV 提供了两种调度策略:CapacityWeighted、VolumeWeighted,可以在存储类中通过参数指定调度策略:
parameters:scheduler: "VolumeWeighted"devname: "test-device"
  • CapacityWeighted
    • CapacityWeighted 为默认调度策略,即根据使用容量调度,它会查找已部署了 OpenEBS 的节点,按节点上块设备已使用容量进行打分,优先调度到已使用容量较小的节点。
    • 如下所示的图中,Node1 节点上已经存在 3 个 PV,Node2 节点上存在 2 个 PV,Node3 节点上没有部署 OpenEBS,如果此时新创建一个 PVC,那么 PV 会如何调度呢?

在这里插入图片描述

    • 根据 CapacityWeighted 调度策略来看,Node3 节点第一个被排除,尽管 Node1 节点上已经存在的 PV 数量比 Node2 节点上的多,但已使用容量较少,故根据已使用容量来排序,显然这个新创建的 PV 将会被调度到 Node1 节点。
  • VolumeWeighted
    • VolumeWeighted 调度策略则根据使用卷数量来进行调度,查找已部署了 OpenEBS 的节点,按节点上块设备已分配卷数量进行打分,优先调度到已使用卷数量较小的节点。
    • 那么分析下来,在跟上图中同样的情况下,使用 VolumeWeighted 调度策略后,新创建的 PV 将会被调度到 Node2 节点:

在这里插入图片描述

  • 自定义调度策略
    • 如果事情按照理想化方向发展,那么上面两种 Device-LocalPV 提供的调度策略没有任何问题,但真实场景中,也许会遇到如下情况:

在这里插入图片描述

    • 现在部署了 OpenEBS 的节点从 2 个扩展成 3 个,但是 Node3 上仅仅部署了 OpenEBS,还没有插入块设备供 OpenEBS 使用。
      在这种情况下,如果新创建 PVC,那么这个 PVC 将一直处于 Pending 状态,PV 无法完成创建。因为无论是哪种调度策略,Device-LocalPV 在为节点打分阶段,总是会将使块设备用量为 0 的节点排序在最前面,所以两种策略最终都会将 PV 调度到 Node3 节点,而又因为 Node3 节点上没有供 OpenEBS 使用的块设备,无法进行磁盘分区,PV 也就无法成功创建。

④ 故障处理

  • 节点故障:
    • 如果某个正在被 LocalPV 使用的节点出现故障,可以通过迁移块设备来让 LocalPV 恢复使用,具体步骤如下:
      • 将数据盘移动到新节点上;
      • 如果新节点没有部署 OpenEBS 则需要先部署 Device-LocalPV 的 DaemonSet 到新节点上;
      • 修改 CRD 资源 devicevolumes.local.openebs.io 所属的节点,即修改 spec.ownerNodeID 属性到新的节点;
      • 修改 PV 的节点信息,即修改 spec.nodeAffinity 属性到新的节点;
      • 删除使用 PV 的 Pod 让其自动重启,并调度到 PV 所指定的新节点上。
  • 磁盘故障:如果某个正在被 LocalPV 使用的块设备出现故障,则会造成数据丢失。
    • 需要注意的是,当某个 PV 所使用的磁盘分区出现故障时,PV 无法感知,只有部署在 Pod 内的程序可以感知到,可以尝试在出现故障的 Pod 容器内部执行读写操作,会得到如下错误:
/mnt/store # echo abc > a.txt
sh: can't create a.txt: Input/output error
    • 因此使用 LocalPV 的程序要有比较完善的异常处理机制以应对可能出现的故障问题。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/218136.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

PostgreSQL向量数据插件--pgvector安装(附PostgreSQL安装)

PostgreSQL向量数据插件--pgvector安装 一、版本二、数据库安装1. 在官网下载PostgreSQL14.0的安装包2.增加用户postgres3.解压安装 三、pgvector安装1. 从github上克隆下来2. 安装pgvector插件3. 开始使用pgvector启用pgsql命令行创建扩展 本文为本人在安装pgvector中踩过的坑…

自动驾驶学习笔记(十八)——Lidar感知

#Apollo开发者# 学习课程的传送门如下&#xff0c;当您也准备学习自动驾驶时&#xff0c;可以和我一同前往&#xff1a; 《自动驾驶新人之旅》免费课程—> 传送门 《Apollo 社区开发者圆桌会》免费报名—>传送门 文章目录 前言 Lidar感知 运动补偿 点云分割 总结…

MySQL——表的约束

目录 一.表的约束 二.空属性 ​编辑三.默认值 四.列描述 五.主键 1.主键 2.符合主键 六.自增长 七.唯一键 八.外键 一.表的约束 真正约束字段的是数据类型&#xff0c;但是数据类型约束很单一&#xff0c;需要有一些额外的约束&#xff0c;更好的保证数据的合法性&…

26种主流的神经网络偏微分方程求解方法汇总

偏微分方程&#xff08;PDE&#xff09;是数学中一门重要的分支&#xff0c;应用范围广泛涉及自然科学、工程技术、生物学领域等。然而我们都知道&#xff0c;偏微分方程的求解过程异常艰难&#xff0c;如果碰上了特别复杂的&#xff0c;传统的计算方法可能需要数百万个CPU小时…

一些好用的VSCode扩展

可以在扩展这里直接搜索需要的扩展&#xff0c;点击安装即可。 1.Chinese 中文扩展&#xff0c;就是说虽然咱们懂点英语&#xff0c;但还是中文看着方便 2.Auto Rename Tag 当你重命名一个HTML 标签时&#xff0c;会自动重命名与他配对的HTML 标签 当你选择h4这个标签时&…

Docker及其使用思维导图

Docker的架构 构建分发运行镜像 Client&#xff08;客户端&#xff09;&#xff1a;是Docker的用户端&#xff0c;可以接受用户命令和配置标识&#xff0c;并与Docker daemon通信。Images&#xff08;镜像&#xff09;&#xff1a;是一个只读模板&#xff0c;含创建Docker容器…

DevEco Studio 项目鸿蒙(HarmonyOS)资源引用(自定统和系统)

DevEco Studio 项目鸿蒙&#xff08;HarmonyOS&#xff09;资源引用&#xff08;自定统和系统&#xff09; 一、操作环境 操作系统: Windows 10 专业版 IDE:DevEco Studio 3.1 SDK:HarmonyOS 3.1 二、资源访问 HarmonyOS应用资源分为两类&#xff0c;一类是应用资源&…

【数组Array】力扣-304 二维区域和检索 - 矩阵不可变

目录 题目描述 解题过程 labuladong题解 题目描述 给定一个二维矩阵 matrix&#xff0c;以下类型的多个请求&#xff1a; 计算其子矩形范围内元素的总和&#xff0c;该子矩阵的 左上角 为 (row1, col1) &#xff0c;右下角 为 (row2, col2) 。 实现 NumMatrix 类&#xf…

计算机网络:应用层(二) Web与http协议

我最近开了几个专栏&#xff0c;诚信互三&#xff01; > |||《算法专栏》&#xff1a;&#xff1a;刷题教程来自网站《代码随想录》。||| > |||《C专栏》&#xff1a;&#xff1a;记录我学习C的经历&#xff0c;看完你一定会有收获。||| > |||《Linux专栏》&#xff1…

如何连接到 Azure SQL 数据库(下)

在《如何连接到 Azure SQL 数据库&#xff08;上&#xff09;》中&#xff0c;我们已经了解到了以下内容↓↓↓ 开始之前&#xff1a;Azure 连接凭据和防火墙 如何检索 Azure 连接凭据如何配置服务器防火墙使用 SQL Server Management Studio 连接到 Azure使用 dbForge Studio…

QuickLook 万能的 Windows 预览工具

QuickLook 是一款用于 Microsoft Windows 操作系统的轻量级文件预览工具。它提供了类似于 Mac OS X 上的"快速查看"功能的体验&#xff0c;允许用户在不打开文件的情况下快速预览文件内容。我们只需要按下键盘空格键就可以预览文件&#xff0c;当预览的是 docx 等文件…

Linux第一个小程序——进度条

Linux第一个小程序——进度条 1. 前言2. 缓冲区概念3. \r && \n4. 进度条实现4.1 初级进度条4.2 升级进度条 1. 前言 在我们写这个小程序之前&#xff0c;我们要用到我们学的三个知识点 gcc的使用vim的使用make/makefile的使用 除此之外还需要一些其他的知识点&…

娱乐新拐点:TikTok如何改变我们的日常生活?

在数字时代的浪潮中&#xff0c;社交媒体平台不断涌现&#xff0c;其中TikTok以其独特的短视频内容在全球范围内掀起了一场娱乐革命。本文将深入探讨TikTok如何改变我们的日常生活&#xff0c;从社交互动、文化传播到个人创意表达&#xff0c;逐步改写了娱乐的新篇章。 短视频潮…

三层交换机原理与配置

文章目录 三层交换机原理与配置一、三层交换技术概述二、传统的 MLS三、基于CEF 的MLS1、转发信息库&#xff08;FIB&#xff09;2、邻接关系表3、工作原理&#xff1a; 四、三层交换机的配置1、三层交换机配置命令2、三层交换机配置步骤 三层交换机原理与配置 一、三层交换技…

网站服务器/域名/备案到底有什么关联?

​  在一个网站的组成中&#xff0c;网站服务器、域名、备案这几个要素是要被常提到的。在谈及三者关联之前&#xff0c;我们先了解下三者的各自概念。 域名&#xff1a;它是网站的唯一标识符&#xff0c;通俗理解来说就是用户在浏览器地址栏中输入的网址。一般来说&#xff…

【LeetCode刷题笔记(6-1)】【Python】【三数之和】【哈希表】【中等】

文章目录 三数之和题目描述示例示例1示例2示例3 提示解决方案1&#xff1a;【三层遍历查找】解决方案2&#xff1a;【哈希表】【两层遍历】 结束语 三数之和 三数之和 题目描述 给你一个整数数组 nums &#xff0c;判断是否存在三元组 [nums[i], nums[j], nums[k]] 满足 i ! …

人工智能_机器学习066_SVM支持向量机_对偶问题转化_强对偶问题_弱对偶问题_弱对偶问题详解---人工智能工作笔记0106

上一节我们就得到了9,这个公式,这个公式要求,先去求maxL(x,lamada) ,也就是求,lamada是多少的时候,对应的, L(x,lamada) = f(x) + h(x) * lamada <=P 中的这个h(x) * lamada,最大,因为h(x)是小于0的也就是,lamada是什么的时候,h(x) * lamada最大,也就是越接近于0对吧. 然…

GaussDB如何创建和管理视图

GaussDB如何创建和管理视图 一、什么是视图 当用户对数据库中的一张或者多张表的某些字段的组合感兴趣&#xff0c;而又不想每次键入这些查询时&#xff0c;用户就可以定义一个视图&#xff0c;以便解决这个问题。 视图与基本表不同&#xff0c;不是物理上实际存在的&#x…

nginx反向代理实践指南:访问Tomcat

目录 前言1 实现的效果2 访问流程分析3 安装tomcat并测试4 配置4.1 在Windows系统的hosts文件进行域名和IP对应关系的配置4.2 在NGINX进行请求转发的配置&#xff08;反向代理配置&#xff09; 5 最终测试结论 前言 从Windows系统访问Tomcat Web应用程序&#xff0c;设置和配置…

字符串——OJ题

&#x1f4d8;北尘_&#xff1a;个人主页 &#x1f30e;个人专栏:《Linux操作系统》《经典算法试题 》《C》 《数据结构与算法》 ☀️走在路上&#xff0c;不忘来时的初心 文章目录 一、字符串相加1、题目讲解2、思路讲解3、代码实现 二、仅仅反转字母1、题目讲解2、思路讲解3…