【云原生-Kurbernetes篇】K8s的存储卷/数据卷+PV与PVC

这是一个目录标题

  • 一、Kurbernetes中的存储卷
    • 1.1 为什么需要存储卷?
    • 1.2 存储卷概述
      • 1.2.1 简介
      • 1.2.2 volume字段
    • 1.3 常用的存储卷类型
      • 1.3.1 emptyDir(临时存储卷)
      • 1.3.2 hostPath(节点存储卷)
      • 1.3.3 nfs
      • 1.3.4 cephfs
  • 二、持久数据卷——PV和PVC
    • 2.1 概念
    • 2.2 PV的生命周期和状态
    • 2.3 访问模式 (Access Modes) 和回收策略 (Reclaim Policy)
  • 三、静态创建PV
    • 3.1 创建思路
    • 3.2 创建实例:NFS使用PV和PVC
      • Step1 配置nfs存储
      • Step2 定义PV
      • Step3 定义PVC
      • Step4 访问测试
  • 四、动态创建PV
    • 4.1 创建思路
    • 4.2 StorageClass的概念
    • 4.3 Provisioner的概念
    • 4.4 实例:NFS 的动态 PV 创建
      • Step1 在master01节点上安装nfs,并配置nfs服务
      • Step2 创建 Service Account
      • Step3 使用 Deployment 创建 NFS Provisioner
        • 补充:报错解决方法
      • Step4 创建 StorageClass
      • Step5 创建 PVC ,进行Pod 测试
  • 五、小结
    • 5.1 PV、PVC的概念和状态
    • 5.2 静态和动态创建PV的思路

一、Kurbernetes中的存储卷

1.1 为什么需要存储卷?

容器部署过程中一般有以下三种数据:

• 启动时需要的初始数据:例如配置文件 (init container)

• 启动过程中产生的临时数据:该临时数据需要多个容器间共享

• 启动过程中产生的持久化数据:例如MySQL的data目录 (业务数据–很重要)

在这里插入图片描述

而容器中的文件在磁盘上是临时存放的,这给容器中运行比较重要的应用程序带来一些问题

问题1: 数据持久化问题,当容器升级或者崩溃时,kubelet会重建容器,容器内文件会丢失

问题2: 数据共享问题,一个Pod中运行多个容器并需要共享文件

Kubernetes中的数据卷(Volume),也可以称为存储卷,能够解决这两个问题。

1.2 存储卷概述

1.2.1 简介

存储卷是用于持久化存储容器中数据的一种机制,可以提供容器内持久化存储的能力,使容器可以在不同的生命周期中保留数据。

数据卷与容器相互独立,并且具有自己的生命周期。

当容器被销毁或重启时,数据卷的内容仍然保持不变,从而确保了容器内数据的持久性(解决了问题1)。

数据卷可以与一个或多个容器进行绑定,使它们可以共享数据(解决了问题2)。

1.2.2 volume字段

Kubernetes中的Volume提供了在容器中挂载外部存储的能力

Pod需要设置卷来源volume)和挂载点volumeMounts)两个信息后才可以使用相应的Volume。

kubectl explain pod.spec.volumes
常用字段名描述
name指定数据卷的名称,用于标识该数据卷
<不同类型的数据卷>Kubernetes 支持不同类型的数据卷,如 NFS、GCE Persistent Disk、AWS EBS等,用于满足特定的存储需求
kubectl explain pod.spec.containers.volumeMounts
常用字段名描述
name指定要挂载的数据卷的名称
mountPath指定挂载点的路径,即将数据卷挂载到容器内的哪个目录
readOnly指定挂载点是否为只读模式。如果设置为 true,则容器只能读取挂载的数据,不能写入

1.3 常用的存储卷类型

1.3.1 emptyDir(临时存储卷)

简介

emptyDir可实现Pod中的容器之间共享目录数据,但没有持久化数据的能力存储卷会随着Pod生命周期结束而一起删除

emptyDir`的一些用途

  • 缓存空间,例如基于磁盘的归并排序。
  • 为耗时较长的计算任务提供检查点,以便任务能方便地从崩溃前状态恢复执行。
  • 在 Web 服务器容器服务数据时,保存内容管理器容器获取的文件。

字段

kubectl explain pod.spec.volumes.emptyDir

在这里插入图片描述

emptyDir.medium 字段用于控制 emptyDir 卷的存储位置,有两个值:MemoryDefault

描述
Memory表示将 emptyDir 卷存储在主机的内存
数据只存在于 Pod 的生命周期内,并且不会被持久化到磁盘上
Default表示将 emptyDir 卷存储在主机的磁盘
数据会在 Pod 重新启动时保留,但不会在节点之间持久化

emptyDir.sizeLimit字段用于来限制卷的容量大小,但是不会自动调整底层存储的大小。

因此,如果设置的大小限制超过节点上的可用磁盘空间,可能会导致 Pod 失败启动或运行时出现错误。

emptyDir 配置示例

apiVersion: v1
kind: Pod
metadata:name: test-pd
spec:containers:- image: registry.k8s.io/test-webservername: test-containervolumeMounts:- mountPath: /cachename: cache-volumevolumes:- name: cache-volumeemptyDir:sizeLimit: 500Mi

1.3.2 hostPath(节点存储卷)

hostPath将node节点上的目录/文件挂载到Pod容器的指定目录上。

有持久化数据的能力,但只能在单个node节点上持久化数据,不能实现跨node节点的Pod共享数据

hostPath卷配置示例

apiVersion: v1
kind: Pod
metadata:name: test-pd
spec:containers:- image: registry.k8s.io/test-webservername: test-containervolumeMounts:- mountPath: /test-pdname: test-volumevolumes:- name: test-volumehostPath:# 宿主机上目录位置path: /data# 此字段为可选type: Directory

支持的 type 值如下:

取值行为
空字符串(默认)用于向后兼容,这意味着在安装 hostPath 卷之前不会执行任何检查。
DirectoryOrCreate如果在给定路径上什么都不存在,那么将根据需要创建空目录,权限设置为 0755,具有与 kubelet 相同的组和属主信息。
Directory在给定路径上必须存在的目录。
FileOrCreate如果在给定路径上什么都不存在,那么将在那里根据需要创建空文件,权限设置为 0644,具有与 kubelet 相同的组和所有权。
File在给定路径上必须存在的文件。
Socket在给定路径上必须存在的 UNIX 套接字。
CharDevice在给定路径上必须存在的字符设备。
BlockDevice在给定路径上必须存在的块设备。

补充:FileOrCreate模式

FileOrCreate 模式不会负责创建文件的父目录。

如果欲挂载的文件的父目录不存在,Pod 启动会失败。

为了确保这种模式能够工作,可以尝试把文件和它对应的目录分开挂载,如 FileOrCreate 配置所示。

apiVersion: v1
kind: Pod
metadata:name: test-webserver
spec:containers:- name: test-webserverimage: registry.k8s.io/test-webserver:latestvolumeMounts:- mountPath: /var/local/aaaname: mydir- mountPath: /var/local/aaa/1.txtname: myfilevolumes:- name: mydirhostPath:# 确保文件所在目录成功创建。path: /var/local/aaatype: DirectoryOrCreate- name: myfilehostPath:path: /var/local/aaa/1.txttype: FileOrCreate

1.3.3 nfs

nfs使用nfs服务存储卷挂载Pod容器的指定目录上

有持久化数据的能力,且也能实现跨node节点的Pod共享数据。

nfs卷的配置示例

apiVersion: v1
kind: Pod
metadata:name: test-pd
spec:containers:- image: registry.k8s.io/test-webservername: test-containervolumeMounts:- mountPath: /my-nfs-dataname: test-volumevolumes:- name: test-volumenfs:server: my-nfs-server.example.compath: /my-nfs-volumereadOnly: true

注意:不能在 Pod spec 中指定 NFS 挂载可选项

可以选择设置服务端的挂载可选项,或者使用 /etc/nfsmount.conf。

此外,还可以通过允许设置挂载可选项的持久卷挂载 NFS 卷。

1.3.4 cephfs

cephfs 卷允许将现存的 CephFS 卷挂载到 Pod 中。

cephfs 卷可以被预先填充数据,且这些数据可以在 Pod 之间共享,同一 cephfs 卷可同时被多个挂载。

apiVersion: v1
kind: Pod
metadata:name: cephfs
spec:containers:- name: cephfs-rwimage: kubernetes/pausevolumeMounts:- mountPath: "/mnt/cephfs"name: cephfsvolumes:- name: cephfscephfs:monitors:- 10.16.154.78:6789- 10.16.154.82:6789- 10.16.154.83:6789# by default the path is /, but you can override and mount a specific path of the filesystem by using the path attribute# path: /some/path/in/side/cephfsuser: adminsecretFile: "/etc/ceph/admin.secret"readOnly: true

二、持久数据卷——PV和PVC

2.1 概念

在这里插入图片描述

持久卷(PersistentVolume,PV):K8S在指定的存储设备空间中逻辑划分创建出来的可持久化的存储资源对象。

持久卷声明(PersistentVolumeClaim,PVC):对PV存储资源对象的请求和绑定,也是Pod能够挂载使用的一种存储卷类型。

2.2 PV的生命周期和状态

生命周期

在这里插入图片描述

#PV和PVC之间的相互作用遵循这个生命周期
Provisioning(配置)---> Binding(绑定)---> Using(使用)---> Releasing(释放) ---> Recycling(回收)
生命周期描述
ProvisioningPV 的创建,可以直接创建 PV(静态方式),也可以使用StorageClass 动态创建
Binding将 PV 分配给 PVC
UsingPod 通过 PVC 使用该 Volume,并可以通过准入控制StorageProtection(1.9及以前版本为PVCProtection) 阻止删除正在使用的 PVC
ReleasingPod 释放 Volume 并删除 PVC
Reclaiming回收 PV,可以保留 PV 以便下次使用,也可以直接从云存储中删除

状态

PV的状态描述
Available(可用)表示为可用状态,PV已经被创建出来了,但是还未被PVC绑定
Bound(已绑定)表示PV已经被PVC绑定了,PV与PVC是一对一的绑定关系
Released(已释放)表示PVC被删除了,但是PV还没被回收
Failed(失败)表示PV被自动回收失败

2.3 访问模式 (Access Modes) 和回收策略 (Reclaim Policy)

访问模式

存储卷在挂载到宿主机系统上时,可以设置不同的访问模式 (Access Modes)

支持的访问模式描述
ReadWriteOnce (RWO)读写权限,并且只能被单个Node挂载
ReadOnlyMany (ROX)只读权限,允许被多个Node挂载
ReadWriteMany(RWX)读写权限,允许被多个Node挂载

回收策略

通过PV定义中的persistentVolumeReclaimPolicy字段进行设置。

回收策略描述
Retain(保留)保留数据,需要手工处理
Recycle(回收)简单清除文件的操作(例如运行rm -rf /thevolume/*命令),只有 NFS 和 HostPath 两种类型的 PV支持 Recycle 策略
Delete(删除)与PV相连的后端存储完成Volume的删除操作,AWSElasticBlockStore、 GCEPersistentDis、 AzureDisk和Cinder类型的PV支持 Delete策略

三、静态创建PV

3.1 创建思路

1)准备好存储设备和共享目录;

2)准备yaml配置文件创建PV资源,设置 存储类型访问模式(RWO RWX ROX RWOP)、 空间大小回收策略(Retain Delete Recycle) 、storageClassName等;

3)准备yaml配置文件创建PVC资源,设置 访问模式(必要条件,必须是PV能支持的访问模式)、空间大小(默认就近选择大于等于指定大小的PV) 、storageClassName等来绑定PV

4)创建Pod资源挂载PVC存储卷,设置存储卷类型为 persistentVolumeClaim ,并在容器配置中定义存储卷挂载点目录

3.2 创建实例:NFS使用PV和PVC

Step1 配置nfs存储

#创建共享目录
mkdir /opt/test
cd /opt/test
mkdir v{1,2,3,4,5}
#定义多个共享目录和对应的访问权限
vim /etc/exports/opt/test/v1 192.168.2.0/24(rw,no_root_squash)
/opt/test/v2 192.168.2.0/24(rw,no_root_squash)
/opt/test/v3 192.168.2.0/24(rw,no_root_squash)
/opt/test/v4 192.168.2.0/24(rw,no_root_squash)
/opt/test/v5 192.168.2.0/24(rw,no_root_squash)
#重新加载共享目录,应用修改
exportfs -arvshowmount -e

在这里插入图片描述

Step2 定义PV

#这里定义5个PV,并且定义挂载的路径以及访问模式,还有PV划分的大小。
vim pv-demo.yamlapiVersion: v1
kind: PersistentVolume
metadata:name: pv001labels:name: pv001
spec:nfs:path: /opt/test/v1server: master01accessModes: ["ReadWriteMany","ReadWriteOnce"]capacity:storage: 1Gi
---
apiVersion: v1
kind: PersistentVolume
metadata:name: pv002labels:name: pv002
spec:nfs:path: /opt/test/v2server: master01accessModes: ["ReadWriteOnce"]capacity:storage: 2Gi
---
apiVersion: v1
kind: PersistentVolume
metadata:name: pv003labels:name: pv003
spec:nfs:path: /opt/test/v3server: master01accessModes: ["ReadWriteMany","ReadWriteOnce"]capacity:storage: 2Gi
---
apiVersion: v1
kind: PersistentVolume
metadata:name: pv004labels:name: pv004
spec:nfs:path: /opt/test/v4server: master01accessModes: ["ReadWriteMany","ReadWriteOnce"]capacity:storage: 4Gi
---
apiVersion: v1
kind: PersistentVolume
metadata:name: pv005labels:name: pv005
spec:nfs:path: /opt/test/v5server: master01accessModes: ["ReadWriteMany","ReadWriteOnce"]capacity:storage: 5Gi
kubectl apply -f pv-demo.yaml -n my-ns
kubectl get pv -n my-ns

在这里插入图片描述

Step3 定义PVC

这里定义了pvc的访问模式为多路读写,该访问模式必须在前面pv定义的访问模式之中。

定义PVC申请的大小为2Gi,此时PVC会自动去匹配多路读写且大小为2Gi的PV,匹配成功获取PVC的状态即为Bound

vim pod-vol-pvc.yamlapiVersion: v1
kind: PersistentVolumeClaim
metadata:name: mypvcnamespace: my-ns
spec:accessModes: ["ReadWriteMany"]resources:requests:storage: 2Gi
---
apiVersion: v1
kind: Pod
metadata:name: pod-vol-pvcnamespace: my-ns
spec:containers:- name: myappimage: nginxvolumeMounts:- name: htmlmountPath: /usr/share/nginx/htmlvolumes:- name: htmlpersistentVolumeClaim:claimName: mypvc
kubectl apply -f pod-vol-pvc.yamlkubectl get pv

在这里插入图片描述

kubectl get pvc

在这里插入图片描述

Step4 访问测试

在存储服务器上创建index.html,并写入数据,通过访问Pod进行查看,可以获取到相应的页面。

#创建测试页面
cd /opt/test/v3/
echo "welcome to use pv3" > index.html
kubectl get pods -o wide -n my-ns

在这里插入图片描述

#访问测试
firefox http://10.244.2.82

在这里插入图片描述

四、动态创建PV

4.1 创建思路

1)准备好存储设备和共享目录;

2)如果是外置存储卷插件,需要先创建serviceaccount账户(Pod使用的账户)和做RBAC授权(创建角色授予相关资源对象的操作权限,再将账户与角色进行绑定),使sa账户具有对PV PVC StorageClass等资源的操作权限;

3)准备yaml配置文件创建外置存储卷插件的Pod,设置sa账户作为Pod的用户,并设置相关的环境变量(比如存储卷插件名称);

4)创建StorageClass(简称SC)资源,provisioner自动设置为存储卷插件名称 ;

以上操作是一劳永逸的,之后只需要创建PVC资源时引用StorageClass就可以自动调用存储卷插件动态创建PV资源了

5)准备yaml配置文件创建PVC资源,设置 访问模式、空间大小 storageClassName指定SC资源名称等来动态创建PV资源并绑定PV;

6)创建Pod资源挂载PVC存储卷,设置存储卷类型为 persistentVolumeClaim ,并在容器配置中定义存储卷挂载点目录。

4.2 StorageClass的概念

官方文档:存储类 | Kubernetes

简介

**存储类(Storage Class)**是 Kubernetes 中用于定义持久卷(Persistent Volume)的类型和行为的对象

它定义了动态分配的存储和卷的属性,并指定如何创建和管理这些存储资源。

关于默认的StorageClass

当一个 PVC 没有指定 storageClassName 时,会使用默认的 StorageClass。

集群中只能有一个默认的 StorageClass。

如果不小心设置了多个默认的 StorageClass, 当 PVC 动态配置时,将使用最新设置的默认 StorageClass

关于字段

每个 StorageClass 都包含 provisionerparametersreclaimPolicy 字段, 这些字段会在 StorageClass 需要动态制备 PersistentVolume 时会使用到。

功能

1)提供动态卷配置:存储类可以与动态卷配置程序(比如 CSI 驱动程序)集成,以便在创建 PVC(Persistent Volume Claim)时自动创建相应的 PV(Persistent Volume)

2)指定卷的参数: 存储类可以定义卷的各种参数和配置选项,如访问模式、卷大小、复制策略等。

3)**支持动态卷生命周期管理:**存储类可以定义如何动态创建、扩容和销毁卷,以及何时回收 PV 等。

4.3 Provisioner的概念

**Provisioner(存储分配器):**卷插件,用于指定 Volume 插件的类型,包括内置插件(如 kubernetes.io/aws-ebs)和外部插件(如 external-storage 提供的 ceph.com/cephfs)。

详见:https://kubernetes.io/zh/docs/concepts/storage/storage-classes/

Kubernetes 本身支持的动态 PV 创建不包括 NFS,所以需要使用外部存储卷插件分配PV。

4.4 实例:NFS 的动态 PV 创建

搭建 StorageClass + nfs-client-provisioner ,实现 NFS 的动态 PV 创建

Step1 在master01节点上安装nfs,并配置nfs服务

#创建共享目录
mkdir /opt/test2
chmod 777 /opt/test2/#添加权限
vim /etc/exports
/opt/test2 192.168.2.0/24(rw,no_root_squash,sync)
#重启NFS服务
systemctl restart nfsexportfs -var
showmount -e

在这里插入图片描述

Step2 创建 Service Account

Service Account 用来管理 NFS Provisioner 在 k8s 集群中运行的权限,设置nfs-clientPVPVCStorageClass 等的规则

#编写配置清单文件
vim nfs-client-rbac.yaml#创建 Service Account 账户,用来管理 NFS Provisioner 在 k8s 集群中运行的权限
apiVersion: v1
kind: ServiceAccount
metadata:name: nfs-client-provisioner
---
#创建集群角色
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:name: nfs-client-provisioner-clusterrole
rules:- apiGroups: [""]resources: ["persistentvolumes"]verbs: ["get", "list", "watch", "create", "delete"]- apiGroups: [""]resources: ["persistentvolumeclaims"]verbs: ["get", "list", "watch", "update"]- apiGroups: ["storage.k8s.io"]resources: ["storageclasses"]verbs: ["get", "list", "watch"]- apiGroups: [""]resources: ["events"]verbs: ["list", "watch", "create", "update", "patch"]- apiGroups: [""]resources: ["endpoints"]verbs: ["create", "delete", "get", "list", "watch", "patch", "update"]
---
#集群角色绑定
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:name: nfs-client-provisioner-clusterrolebinding
subjects:
- kind: ServiceAccountname: nfs-client-provisionernamespace: default
roleRef:kind: ClusterRolename: nfs-client-provisioner-clusterroleapiGroup: rbac.authorization.k8s.io
##配置清单文件详解##
用于创建一个 Service Account 账户和相关的 Role、RoleBinding,用于管理 NFS Provisioner 在 Kubernetes 集群中的权限。首先,创建了一个 Service Account 账户,命名为 "nfs-client-provisioner"然后,创建了一个 Cluster Role,命名为 "nfs-client-provisioner-clusterrole"。
该角色定义了一组权限规则,包括对持久卷(persistentvolume)的获取、列表、监视、创建和删除操作,对持久卷声明(persistentvolumeclaim)的获取、列表、监视和更新操作,对存储类(storageclass)的获取、列表和监视操作,对事件(events)和端点(endpoints)的获取、列表、监视、创建、更新等操作。最后,创建了一个 Cluster Role Binding,将上述角色与之前创建的 Service Account 进行绑定,并将其绑定到默认命名空间(namespace)中。
kubectl apply -f nfs-client-rbac.yaml
#Service Account "nfs-client-provisioner" 具备了管理 NFS Provisioner 所需的权限。

在这里插入图片描述

Step3 使用 Deployment 创建 NFS Provisioner

NFS Provisioner(即 nfs-client),有两个功能
1)在 NFS 共享目录下创建挂载点(volume),另一个则是将 PV 与 NFS 的挂载点建立关联。

编写资源配置清单文件

#编写配置清单文件
vim nfs-client-provisioner.yamlkind: Deployment
apiVersion: apps/v1
metadata:name: nfs-client-provisioner
spec:replicas: 1selector:matchLabels:app: nfs-client-provisionerstrategy:type: Recreatetemplate:metadata:labels:app: nfs-client-provisionerspec:serviceAccountName: nfs-client-provisioner   	  #指定Service Account账户containers:- name: nfs-client-provisionerimage: quay.io/external_storage/nfs-client-provisioner:latestimagePullPolicy: IfNotPresentvolumeMounts:- name: nfs-client-rootmountPath: /persistentvolumesenv:- name: PROVISIONER_NAMEvalue: nfs-storage       #配置provisioner的Name,确保该名称与StorageClass资源中的provisioner名称保持一致- name: NFS_SERVERvalue: master01           #配置绑定的nfs服务器- name: NFS_PATHvalue: /opt/test2/          #配置绑定的nfs服务器目录volumes:              #申明nfs数据卷- name: nfs-client-rootnfs:server: master01path: /opt/test2/

创建

kubectl apply -f nfs-client-provisioner.yaml kubectl get po 

在这里插入图片描述

补充:报错解决方法
#由于 1.20 版本启用了 selfLink,所以 k8s 1.20+ 版本通过 nfs provisioner 动态生成pv会报错,解决方法如下:
vim /etc/kubernetes/manifests/kube-apiserver.yaml
spec:containers:- command:- kube-apiserver- --feature-gates=RemoveSelfLink=false       #添加这一行- --advertise-address=192.168.2.100
.....

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

kubectl apply -f /etc/kubernetes/manifests/kube-apiserver.yamlkubectl delete pods kube-apiserver -n kube-systemkubectl get pods -n kube-system | grep apiserver

Step4 创建 StorageClass

负责建立 PVC 并调用 NFS provisioner 进行预定的工作,并让 PV 与 PVC 建立关联。

#编写配置清单文件
vim nfs-client-storageclass.yamlapiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:name: nfs-client-storageclass
provisioner: nfs-storage     #这里的名称要和provisioner配置文件中的环境变量PROVISIONER_NAME保持一致
parameters:archiveOnDelete: "false"   #false表示在删除PVC时不会对数据目录进行打包存档,即删除数据;为ture时就会自动对数据目录进行打包存档,存档文件以archived开头
#声明式创建
kubectl apply -f nfs-client-storageclass.yamlkubectl get storageclass

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

Step5 创建 PVC ,进行Pod 测试

创建PVC

vim test-pvc-pod.yamlapiVersion: v1
kind: PersistentVolumeClaim
metadata:name: test-nfs-pvc#annotations: volume.beta.kubernetes.io/storage-class: "nfs-client-storageclass"     #另一种SC配置方式
spec:accessModes:- ReadWriteManystorageClassName: nfs-client-storageclass    #关联StorageClass对象resources:requests:storage: 1Gi
---
apiVersion: v1
kind: Pod
metadata:name: test-storageclass-pod
spec:containers:- name: busyboximage: busybox:latestimagePullPolicy: IfNotPresentcommand:- "/bin/sh"- "-c"args:- "sleep 3600"volumeMounts:- name: nfs-pvcmountPath: /mntrestartPolicy: Nevervolumes:- name: nfs-pvcpersistentVolumeClaim:claimName: test-nfs-pvc      #与PVC名称保持一致
kubectl apply -f test-pvc-pod.yamlkubectl get pvc 

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

查看 NFS 服务器上是否生成对应的目录

自动创建的 PV 会以 ${namespace}-${pvcName}-${pvName} 的目录格式放到 NFS 服务器上。

ls /opt/test2

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

Pod测试

**测试思路:**进入 Pod 在挂载目录 /mnt 下写一个文件,然后查看 NFS 服务器上是否存在该文件

#进入Pod,创建测试文件
kubectl exec -it test-storageclass-pod sh/ # cd /mnt/
/mnt # echo 'this is test file' > test.txt

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

#进入到目录
cd /opt/test2/default-test-nfs-pvc-pvc-7a63142b-a4b4-4f07-966c-828ca60bbdcb

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

五、小结

5.1 PV、PVC的概念和状态

概念

PV: K8S在指定的存储设备空间中逻辑划分创建出来的可持久化的存储资源对象。

PVC: 对PV存储资源对象的请求和绑定,也是Pod能够挂载使用的一种存储卷类型。

创建方式简介

手动根据PV资源的yaml配置文件创建静态PV

根据PVC的配置通过StorageClass(简称SC)资源调用存储卷插件创建动态PV

PV的4种状态

PV的状态描述
Available(可用)表示为可用状态,PV已经被创建出来了,但是还未被PVC绑定
Bound(已绑定)表示PV已经被PVC绑定了,PV与PVC是一对一的绑定关系
Released(已释放)表示PVC被删除了,但是PV还没被回收
Failed(失败)表示PV被自动回收失败

5.2 静态和动态创建PV的思路

创建使用静态PV

1)准备好存储设备和共享目录;

2)准备yaml配置文件创建PV资源,设置 存储类型访问模式(RWO RWX ROX RWOP)、 空间大小回收策略(Retain Delete Recycle) 、storageClassName等;

3)准备yaml配置文件创建PVC资源,设置 访问模式(必要条件,必须是PV能支持的访问模式)、空间大小(默认就近选择大于等于指定大小的PV) 、storageClassName等来绑定PV

4)创建Pod资源挂载PVC存储卷,设置存储卷类型为 persistentVolumeClaim ,并在容器配置中定义存储卷挂载点目录

创建使用动态PV

1)准备好存储设备和共享目录;

2)如果是外置存储卷插件,需要先创建serviceaccount账户(Pod使用的账户)和做RBAC授权(创建角色授予相关资源对象的操作权限,再将账户与角色进行绑定),使sa账户具有对PV PVC StorageClass等资源的操作权限;

3)准备yaml配置文件创建外置存储卷插件的Pod,设置sa账户作为Pod的用户,并设置相关的环境变量(比如存储卷插件名称);

4)创建StorageClass(简称SC)资源,provisioner自动设置为存储卷插件名称 ;

以上操作是一劳永逸的,之后只需要创建PVC资源时引用StorageClass就可以自动调用存储卷插件动态创建PV资源了

5)准备yaml配置文件创建PVC资源,设置 访问模式、空间大小 storageClassName指定SC资源名称等来动态创建PV资源并绑定PV;

6)创建Pod资源挂载PVC存储卷,设置存储卷类型为 persistentVolumeClaim ,并在容器配置中定义存储卷挂载点目录。

通过陈述式管理资源配置的方式 修改或添加资源对象的配置
kubectl patch <资源类型> <资源名称> -p '{"第一层字段": {"第二层字段": {....}}}'kubectl patch deployment deploy-test -p '{"spec": {"replicas": 0}}'
kubectl patch deployment deploy-test -p '{"spec": {"template": {"spec": {"containers": [{"name": "myapp", "image": "soscscs/myapp:v1"}]}}}}'

存储卷挂载点目录** 。

创建使用动态PV

1)准备好存储设备和共享目录;

2)如果是外置存储卷插件,需要先创建serviceaccount账户(Pod使用的账户)和做RBAC授权(创建角色授予相关资源对象的操作权限,再将账户与角色进行绑定),使sa账户具有对PV PVC StorageClass等资源的操作权限;

3)准备yaml配置文件创建外置存储卷插件的Pod,设置sa账户作为Pod的用户,并设置相关的环境变量(比如存储卷插件名称);

4)创建StorageClass(简称SC)资源,provisioner自动设置为存储卷插件名称 ;

以上操作是一劳永逸的,之后只需要创建PVC资源时引用StorageClass就可以自动调用存储卷插件动态创建PV资源了

5)准备yaml配置文件创建PVC资源,设置 访问模式、空间大小 storageClassName指定SC资源名称等来动态创建PV资源并绑定PV;

6)创建Pod资源挂载PVC存储卷,设置存储卷类型为 persistentVolumeClaim ,并在容器配置中定义存储卷挂载点目录。

通过陈述式管理资源配置的方式 修改或添加资源对象的配置
kubectl patch <资源类型> <资源名称> -p '{"第一层字段": {"第二层字段": {....}}}'kubectl patch deployment deploy-test -p '{"spec": {"replicas": 0}}'
kubectl patch deployment deploy-test -p '{"spec": {"template": {"spec": {"containers": [{"name": "myapp", "image": "soscscs/myapp:v1"}]}}}}'

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/194660.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

RocketMQ的适用场景有哪些?

程序员的公众号&#xff1a;源1024&#xff0c;获取更多资料&#xff0c;无加密无套路&#xff01; 最近整理了一波电子书籍资料&#xff0c;包含《Effective Java中文版 第2版》《深入JAVA虚拟机》&#xff0c;《重构改善既有代码设计》&#xff0c;《MySQL高性能-第3版》&…

UE基础篇六:音频

导语: 通过实现一个小游戏,来学会音频,最后效果 入门 下载启动项目并解压缩。通过导航到项目文件夹并打开SkywardMuffin.uproject来打开项目。 按播放开始游戏。游戏的目标是在不坠落的情况下触摸尽可能多的云。单击鼠标左键跳到第一朵云。 游戏很放松,不是吗?为了强调…

php接口api数据签名及验签

api数据签名作用&#xff1a;通过使用签名可以验证数据在传输过程中是否被篡改或修改。接收方可以使用相同的签名算法和密钥对接收到的数据进行验证&#xff0c;如果验证失败则表明数据被篡改过 1、数据发送方进行接口签名并传输签名字段 <?php // 请求URL $url "h…

Python采集某网站数据实现简单可视化效果, webpack Js逆向解密

嗨喽&#xff0c;大家好呀~这里是爱看美女的茜茜呐 环境使用 : Python 3.8 Pycharm nodejs 模块使用: requests --> pip install requests execjs --> pip install PyExecJS csv 采集网站的数据如何去实现: 一. 数据来源分析 <√> 明确需求: 明确采集的网…

如何使用ArcGIS Pro制作粉饰效果

在地图上&#xff0c;如果某个部分比较重要&#xff0c;直接的制图不能将其凸显出来&#xff0c;如果想要突出显示重要部分&#xff0c;可以通过粉饰效果来实现&#xff0c;这里为大家介绍一下方法&#xff0c;希望能对你有所帮助。 数据来源 本教程所使用的数据是从水经微图…

vue2项目修改编译巨慢

前言&#xff1a;我们的一个vue项目在给新同事后他说编译贼慢&#xff0c;一个小修改项5分钟才能自动编译成功&#xff0c;我把项目放到新电脑上也巨慢&#xff0c;升级了nodejs好使了一些&#xff0c;但还是慢&#xff0c;最后引入webpack后巨快&#xff0c; 在项目的package…

如何在 Linux 上部署 RabbitMQ

如何在 Linux 上部署 RabbitMQ 文章目录 如何在 Linux 上部署 RabbitMQ安装 Erlang从预构建的二进制包安装从源代码编译 Erlang RabbitMQ 的安装使用 RabbitMQ Assistant 连接 RabbitMQ Assistant 是一款优秀的RabbitMQ 可视化管理工具&#xff0c;提供丰富的管理功能。下载地址…

ClickHouse的表引擎

1 表引擎的使用 表引擎是ClickHouse的一大特色。可以说&#xff0c; 表引擎决定了如何存储表的数据。包括&#xff1a; 数据的存储方式和位置&#xff0c;写到哪里以及从哪里读取数据。支持哪些查询以及如何支持。并发数据访问。索引的使用&#xff08;如果存在&#xff09;。是…

使用IDEA 将Eclipse java工程转为maven格式

使用IDEA 将Eclipse java工程转为maven格式 ①使用idea打开项目&#xff0c;在项目根目录下右键选择 Add Framework Support 选择 maven &#xff0c;引入maven ②找到项目中的.classpath文件或者lib目录 根据.classpath文件或者lib目录中列举的jar包名&#xff0c;将其依次手…

大模型在数据分析场景下的能力评测|进阶篇

做数据分析&#xff0c;什么大模型比较合适&#xff1f; 如何调优大模型&#xff0c;来更好地做数据计算和洞察分析&#xff1f; 如何降低整体成本&#xff0c;同时保障分析体验&#xff1f;10月25日&#xff0c;我们发布了数据分析场景下的大模型能力评测框架&#xff08;点击…

【Web】在前端中,HTML<meta>标签

<meta>实例 <head><meta name"description" content"免费在线教程"><meta name"keywords" content"HTML,CSS,XML,JAVASCRIPT"><meta name"author" content"runoob"><meta char…

静态共享代理和静态独享有哪些区别?怎么选择?

在软件开发中&#xff0c;静态共享代理&#xff08;Static Proxy&#xff09;和静态独享&#xff08;Monostatic&#xff09;是两种常见的软件设计模式。这两种模式在实现方式、使用场景以及优缺点上存在一定的差异&#xff0c;下面将详细介绍它们的区别以及如何进行选择。 一、…

CTF-PWN-堆-【前置知识】

CTF-PWN-堆 堆申请堆块main_areanabrk&sbrk函数mallocfreefree后top chunk 堆 由malloc alloc realloc 函数分配 chunk的前指的是地址低的&#xff0c;chunk的高指的是地址高的 申请堆块 ptmalloc2堆管理器&#xff1a; 通俗的讲就是相当于一个”中间商”&#xff0c;在…

鸿蒙原生应用开发-折叠屏、平板设备服务卡片适配

一、多设备卡片适配原则 为不同尺寸的卡片提供不同的功能 在卡片开发过程中请考虑适配不同尺寸的设备&#xff0c;特别是在折叠屏和平板设备上&#xff0c;设备屏幕尺寸的变化直接影响了卡片内容的展示。请发挥想象力设计具有自适应能力的卡片&#xff0c;避免在卡片内容不做…

清理mac苹果电脑磁盘软件有哪些免费实用的?

苹果电脑是一款非常流行的操作系统设备&#xff0c;其稳定性和性能一直备受用户的喜爱。然而&#xff0c;随着时间的推移&#xff0c;我们使用电脑的过程中可能会发现磁盘上存储的数据越来越多&#xff0c;这不仅占用了宝贵的硬盘空间&#xff0c;还可能导致电脑运行变慢。因此…

shell脚本学习06(小滴课堂)

fi是结束循环的意思。 这里脚本1&#xff1a;代表着脚本和1.txt文件处于同一目录下。 脚本2为绝对路径的写法。 在使用./进行启动时&#xff0c;我们需要给文件赋予执行权限。 把文件名改为2.txt: 什么都没有返回&#xff0c;说明文件已经不存在。 可以使用脚本2 if else的方式…

Elasticsearch 8.9 Bulk批量给索引增加数据源码

一、相关API的handler二、RestBulkAction&#xff0c;组装bulkRequest调用TransportBulkAction三、TransportBulkAction 会把数据分发到数据该到的数据节点1、把数据按分片分组&#xff0c;按分片分组数据再发送到指定的数据节点(1) 计算此文档发往哪个分片1)根据索引是否是分区…

吉利银河L6顶配 官方OTA升级降低充电速度

互联网是有记忆的 你宣传充电口 卖出去又更新降低速度 属于诈骗 吉利新车上市两个月官降1w,希望大家引以为戒,可以买,但是刚出别着急做韭菜

免费的快速手机文件解压APP,快冲

各位小伙伴们大家好&#xff0c;今天我要介绍一款手机上必备的神奇工具&#xff01;你有没有经常遇到需要解压文件情况呢&#xff1f;还在为不知道用哪个软件而烦恼吗&#xff1f;别担心&#xff0c;我给你带来了解决方案 &#xff0c;就是这一款免费的解压精灵。 解压精灵是一…

java接收前端easyui datagrid传递的数组参数

这篇文章分享一下怎么在easyui的datagrid刷新表格时&#xff0c;在后端java代码中接收datagrid传递的数组参数。 数组来源于技能的tagbox&#xff08;标签框&#xff09;&#xff0c;tagbox和combobox的区别是tagbox可以选择多项。 标签框渲染的代码为 $("#skill_ids"…