人工智能算法工程师(高级)课程1-单类目标识别之人脸检测识别技术MTCNN模型介绍与代码详解

大家好,我是微学AI,今天给大家介绍一下人工智能算法工程师(高级)课程1-单类目标识别之人脸检测识别技术MTCNN模型介绍与代码详解。本文深入探讨了基于PyTorch的人脸检测与识别技术,详细介绍了MTCNN模型、Siamese network以及center loss、softmax loss、L-softmax loss、A-softmax loss等多种损失函数的原理与实现。通过配套的完整可运行代码,展示了如何在PyTorch中搭建单类多目标项目的人脸检测识别流程,并指导读者训练出自己的人脸识别模型。通过本文章想帮助读者掌握人脸识别的核心技术,为实际应用提供有力支持。

文章目录

  • 一、引言
  • 二、MTCNN模型
    • 1. 数学原理
      • PNet (Proposal Network)
      • RNet (Refine Network)
      • ONet (Output Network)
      • 整个MTCNN流程
    • 2. 相关公式
    • 3. 代码实现
  • 三、Siamese network
    • 1. 数学原理
    • 2. 相关公式
    • 3. 代码实现
  • 四、损失函数
    • 1. Center loss
    • 2. Softmax loss
    • 3. L-Softmax loss
    • 4. A-Softmax loss
  • 五、人脸识别相关损失函数代码实现
  • 六、训练自己的人脸识别模型
    • 1. 数据准备
    • 2. 数据预处理
    • 3. 模型训练
    • 4. 模型评估
    • 5. 模型部署
  • 七、模型评估与优化
    • 1. 评估指标
    • 2. 代码实现
    • 3. 模型优化
  • 八、总结

一、引言

人脸检测与识别技术在安防、金融、社交等领域具有广泛的应用。近年来,深度学习技术的发展极大地推动了人脸检测识别技术的进步。本文将详细介绍人脸检测识别技术中的关键模型和算法,包括MTCNN、Siamese network以及多种损失函数,并使用PyTorch搭建完整可运行的代码,帮助读者掌握单类多目标项目的检测识别流程。

二、MTCNN模型

1. 数学原理

MTCNN(Multi-task Cascaded Convolutional Networks)是一种用于人脸检测和特征点定位的网络模型。它由三个级联的网络组成:PNet、RNet和ONet。

PNet (Proposal Network)

作用:PNet 是一个全卷积网络,它的主要任务是在图像的不同尺度上生成候选的人脸区域(Bounding Boxes)。它会滑动窗口并输出每个位置的分类分数(是否为人脸)和边界框的修正参数。
输出:对于每个滑动窗口的位置,PNet 输出两个值:一个是分类概率,表明该窗口内是否存在人脸;另一个是四个坐标值,用于修正窗口的位置,使其更精确地包围人脸。

RNet (Refine Network)

作用:RNet 接收由PNet筛选出的候选区域,进一步精炼这些候选框,去除一些非人脸的框,并对保留的框进行更准确的定位。
输出:RNet 同样输出分类概率和边界框的修正参数,但它的精度比PNet更高,可以排除更多的误检。

ONet (Output Network)

作用:ONet 是MTCNN的最后一级网络,它负责最终的决策,包括确定哪些候选框真正包含人脸以及人脸的关键点位置(例如眼睛、鼻子、嘴巴等)。
输出:ONet 不仅输出分类概率和边界框的修正参数,还输出关键点的位置,这使得MTCNN能够同时完成人脸检测和关键点定位。
在这里插入图片描述

整个MTCNN流程

1.使用PNet在图像的多个尺度上生成大量候选框。
2.将PNet生成的高置信度候选框送入RNet,RNet进一步筛选和精炼这些框。
3.最终,ONet接收RNet的输出,做出最终的判断,确定哪些框是真正的人脸,同时给出人脸的关键点位置。
这种级联的设计有助于减少计算量,因为大部分的计算工作由PNet承担,而RNet和ONet只处理经过初步筛选后的少数候选框,从而提高了整体效率和准确性。
在这里插入图片描述

2. 相关公式

MTCNN的损失函数为:
L = L c l s + α L b o x + β L l a n d m a r k L = L_{cls} + \alpha L_{box} + \beta L_{landmark} L=Lcls+αLbox+βLlandmark
其中, L c l s L_{cls} Lcls为人脸分类损失, L b o x L_{box} Lbox为边界框回归损失, L l a n d m a r k L_{landmark} Llandmark为特征点定位损失。

3. 代码实现

以下是MTCNN的PyTorch实现:

import torch
import torch.nn as nn
import torch.optim as optim
from torch.nn import functional as Fclass PNet(nn.Module):def __init__(self):super(PNet, self).__init__()self.conv1 = nn.Conv2d(3, 10, kernel_size=3)self.prelu1 = nn.PReLU(10)self.pool1 = nn.MaxPool2d(kernel_size=2, stride=2, ceil_mode=True)self.conv2 = nn.Conv2d(10, 16, kernel_size=3)self.prelu2 = nn.PReLU(16)self.conv3 = nn.Conv2d(16, 32, kernel_size=3)self.prelu3 = nn.PReLU(32)self.conv4_1 = nn.Conv2d(32, 2, kernel_size=1)self.softmax4_1 = nn.Softmax(dim=1)self.conv4_2 = nn.Conv2d(32, 4, kernel_size=1)def forward(self, x):x = self.prelu1(self.conv1(x))x = self.pool1(x)x = self.prelu2(self.conv2(x))x = self.prelu3(self.conv3(x))a = self.softmax4_1(self.conv4_1(x))b = self.conv4_2(x)return b, aclass RNet(nn.Module):def __init__(self):super(RNet, self).__init__()self.conv1 = nn.Conv2d(3, 28, kernel_size=3)self.prelu1 = nn.PReLU(28)self.pool1 = nn.MaxPool2d(kernel_size=3, stride=2, ceil_mode=True)self.conv2 = nn.Conv2d(28, 48, kernel_size=3)self.prelu2 = nn.PReLU(48)self.pool2 = nn.MaxPool2d(kernel_size=3, stride=2, ceil_mode=True)self.conv3 = nn.Conv2d(48, 64, kernel_size=2)self.prelu3 = nn.PReLU(64)self.dense4 = nn.Linear(576, 128)self.prelu4 = nn.PReLU(128)self.dense5_1 = nn.Linear(128, 2)self.softmax5_1 = nn.Softmax(dim=1)self.dense5_2 = nn.Linear(128, 4)def forward(self, x):x = self.prelu1(self.conv1(x))x = self.pool1(x)x = self.prelu2(self.conv2(x))x = self.pool2(x)x = self.prelu3(self.conv3(x))x = x.permute(0, 3, 2, 1).contiguous().view(x.shape[0], -1)x = self.prelu4(self.dense4(x))a = self.softmax5_1(self.dense5_1(x))b = self.dense5_2(x)return b, aclass ONet(nn.Module):def __init__(self):super(ONet, self).__init__()self.conv1 = nn.Conv2d(3, 32, kernel_size=3)self.prelu1 = nn.PReLU(32)self.pool1 = nn.MaxPool2d(kernel_size=3, stride=2, ceil_mode=True)self.conv2 = nn.Conv2d(32, 64, kernel_size=3)self.prelu2 = nn.PReLU(64)self.pool2 = nn.MaxPool2d(kernel_size=3, stride=2, ceil_mode=True)self.conv3 = nn.Conv2d(64, 64, kernel_size=3)self.prelu3 = nn.PReLU(64)self.pool3 = nn.MaxPool2d(kernel_size=2, stride=2, ceil_mode=True)self.conv4 = nn.Conv2d(64, 128, kernel_size=2)self.prelu4 = nn.PReLU(128)self.dense5 = nn.Linear(1152, 256)self.prelu5 = nn.PReLU(256)self.dense6_1 = nn.Linear(256, 2)self.softmax6_1 = nn.Softmax(dim=1)self.dense6_2 = nn.Linear(256, 4)self.dense6_3 = nn.Linear(256, 10)def forward(self, x):x = self.prelu1(self.conv1(x))x = self.pool1(x)x = self.prelu2(self.conv2(x))x = self.pool2(x)x = self.prelu3(self.conv3(x))x = self.pool3(x)x = self.prelu4(self.conv4(x))x = x.permute(0, 3, 2, 1).contiguous().view(x.shape[0], -1)x = self.prelu5(self.dense5(x))a = self.softmax6_1(self.dense6_1(x))b = self.dense6_2(x)c = self.dense6_3(x)return b, c, a# 实例化网络
pnet = PNet()
rnet = RNet()
onet = ONet()# 定义损失函数
criterion = nn.MultiTaskLoss()
# 定义优化器
optimizer = optim.Adam(list(pnet.parameters()) + list(rnet.parameters()) + list(onet.parameters()), lr=0.001)

三、Siamese network

1. 数学原理

Siamese network是一种用于人脸相似度度量的网络模型。它通过比较两张人脸图片的特征向量,计算它们之间的相似度。

2. 相关公式

Siamese network的损失函数为:
L = 1 2 N ∑ i = 1 N ( y i ⋅ max ⁡ ( 0 , m − cos ⁡ ( θ i 1 , θ i 2 ) ) + ( 1 − y i ) ⋅ max ⁡ ( 0 , cos ⁡ ( θ i 1 , θ i 2 ) − m ) ) L = \frac{1}{2N} \sum_{i=1}^{N} (y_i \cdot \max(0, m - \cos(\theta_{i1}, \theta_{i2})) + (1 - y_i) \cdot \max(0, \cos(\theta_{i1}, \theta_{i2}) - m)) L=2N1i=1N(yimax(0,mcos(θi1,θi2))+(1yi)max(0,cos(θi1,θi2)m))
其中, y i y_i yi为标签(相同或不同), θ i 1 \theta_{i1} θi1 θ i 2 \theta_{i2} θi2分别为两张人脸图片的特征向量, m m m为阈值。

3. 代码实现

以下是Siamese network的PyTorch实现:

class SiameseNetwork(nn.Module):# 网络结构代码略
# 实例化网络
siamese_net = SiameseNetwork()
# 定义损失函数
criterion = nn.ContrastiveLoss()
# 定义优化器
optimizer = optim.Adam(siamese_net.parameters(), lr=0.001)

四、损失函数

1. Center loss

Center loss用于减小类内距离,公式为:
L c e n t e r = 1 2 ∑ i = 1 m ∥ x i − c y i ∥ 2 2 L_{center} = \frac{1}{2} \sum_{i=1}^{m} \parallel x_i - c_{y_i} \parallel_2^2 Lcenter=21i=1mxicyi22
其中, x i x_i xi为特征向量, c y i c_{y_i} cyi为对应的类中心。

2. Softmax loss

Softmax loss是最常用的人脸识别损失函数,公式为:
L s o f t m a x = − ∑ i = 1 m log ⁡ e W y T x i + b y ∑ j = 1 n e W j T x i + b j L_{softmax} = -\sum_{i=1}^{m} \log \frac{e^{W_y^T x_i + b_y}}{\sum_{j=1}^{n} e^{W_j^T x_i + b_j}} Lsoftmax=i=1mlogj=1neWjTxi+bjeWyTxi+by
其中, W W W为权重矩阵, b b b为偏置向量。

3. L-Softmax loss

L-Softmax loss是对Softmax loss的改进,公式为:
L L − s o f t m a x = − ∑ i = 1 m log ⁡ e s ⋅ cos ⁡ ( θ y i ) e s ⋅ cos ⁡ ( θ y i ) + ∑ j ≠ y i e s ⋅ cos ⁡ ( θ j ) L_{L-softmax} = -\sum_{i=1}^{m} \log \frac{e^{s \cdot \cos(\theta_{y_i})}}{e^{s \cdot \cos(\theta_{y_i})} + \sum_{j \neq y_i} e^{s \cdot \cos(\theta_j)}} LLsoftmax=i=1mlogescos(θyi)+j=yiescos(θj)escos(θyi)
其中, s s s 是一个超参数, θ j \theta_j θj 是特征向量 x i x_i xi 和权重向量 W j W_j Wj 之间的角度。

4. A-Softmax loss

A-Softmax loss(也称为Angular Softmax loss)进一步改进了L-Softmax loss,通过限制角度的范围来增强模型的判别力。其公式为:
L A − s o f t m a x = − ∑ i = 1 m log ⁡ e s ⋅ cos ⁡ ( θ y i + m ) e s ⋅ cos ⁡ ( θ y i + m ) + ∑ j ∈ { 1 , . . . , n } \ { y i } e s ⋅ cos ⁡ ( θ j ) L_{A-softmax} = -\sum_{i=1}^{m} \log \frac{e^{s \cdot \cos(\theta_{y_i} + m)}}{e^{s \cdot \cos(\theta_{y_i} + m)} + \sum_{j \in \{1, ..., n\} \backslash \{y_i\}} e^{s \cdot \cos(\theta_j)}} LAsoftmax=i=1mlogescos(θyi+m)+j{1,...,n}\{yi}escos(θj)escos(θyi+m)
其中, m m m 是角度间隔的超参数,它限制了决策边界。

五、人脸识别相关损失函数代码实现

以下是使用PyTorch实现上述损失函数的代码:

import torch
import torch.nn as nn
import torch.nn.functional as F
# Center loss
class CenterLoss(nn.Module):def __init__(self, num_classes, feat_dim):super(CenterLoss, self).__init__()self.num_classes = num_classesself.feat_dim = feat_dimself.centers = nn.Parameter(torch.randn(num_classes, feat_dim))def forward(self, x, labels):batch_size = x.size(0)distmat = torch.pow(x, 2).sum(dim=1, keepdim=True).expand(batch_size, self.num_classes) + \torch.pow(self.centers, 2).sum(dim=1, keepdim=True).expand(self.num_classes, batch_size).t()distmat.addmm_(1, -2, x, self.centers.t())classes = torch.arange(self.num_classes).long()if x.is_cuda:classes = classes.cuda()labels = labels.unsqueeze(1).expand(batch_size, self.num_classes)mask = labels.eq(classes.expand(batch_size, self.num_classes))dist = distmat * mask.float()loss = dist.clamp(min=1e-12, max=1e+12).sum() / batch_sizereturn loss
# L-Softmax loss
class LSoftmaxLoss(nn.Module):def __init__(self, num_classes, feat_dim, margin=4, s=30):super(LSoftmaxLoss, self).__init__()self.num_classes = num_classesself.feat_dim = feat_dimself.margin = marginself.s = sself.weights = nn.Parameter(torch.randn(feat_dim, num_classes))nn.init.xavier_uniform_(self.weights)def forward(self, x, labels):# Implementation of L-Softmax losspass  # Placeholder for the actual implementation
# A-Softmax loss
class ASoftmaxLoss(nn.Module):def __init__(self, num_classes, feat_dim, margin=0.35, s=30):super(ASoftmaxLoss, self).__init__()self.num_classes = num_classesself.feat_dim = feat_dimself.margin = marginself.s = sself.weights = nn.Parameter(torch.randn(feat_dim, num_classes))nn.init.xavier_uniform_(self.weights)def forward(self, x, labels):# Implementation of A-Softmax losspass  # Placeholder for the actual implementation
# Example usage
center_loss = CenterLoss(num_classes=10, feat_dim=128)
l_softmax_loss = LSoftmaxLoss(num_classes=10, feat_dim=128)
a_softmax_loss = ASoftmaxLoss(num_classes=10, feat_dim=128)

六、训练自己的人脸识别模型

1. 数据准备

首先,需要准备一个人脸数据集,例如LFW数据集。数据集应包含多个不同人的面部图像,并为每个图像标记相应的类别。

2. 数据预处理

对图像进行标准化、裁剪、翻转等操作,以提高模型的泛化能力。

3. 模型训练

使用上述定义的网络结构和损失函数进行训练。以下是一个训练流程:

# 假设我们已经有了一个数据加载器data_loader
for epoch in range(num_epochs):for images, labels in data_loader:# 前向传播features = siamese_net(images)# 计算损失loss = criterion(features, labels)# 反向传播optimizer.zero_grad()loss.backward()optimizer.step()print(f'Epoch [{epoch+1}/{num_epochs}], Loss: {loss.item()}')

4. 模型评估

在验证集上评估模型的性能,可以使用准确率、召回率等指标来衡量模型的性能。

5. 模型部署

将训练好的模型部署到实际应用中,例如人脸识别系统、门禁系统等。

七、模型评估与优化

1. 评估指标

在人脸识别任务中,常用的评估指标包括准确率(Accuracy)、精确率(Precision)、召回率(Recall)和F1分数(F1 Score)。这些指标可以通过以下公式计算:

  • 准确率: Accuracy = TP + TN TP + TN + FP + FN \text{Accuracy} = \frac{\text{TP} + \text{TN}}{\text{TP} + \text{TN} + \text{FP} + \text{FN}} Accuracy=TP+TN+FP+FNTP+TN
  • 精确率: Precision = TP TP + FP \text{Precision} = \frac{\text{TP}}{\text{TP} + \text{FP}} Precision=TP+FPTP
  • 召回率: Recall = TP TP + FN \text{Recall} = \frac{\text{TP}}{\text{TP} + \text{FN}} Recall=TP+FNTP
  • F1分数: F1 Score = 2 × Precision × Recall Precision + Recall \text{F1 Score} = 2 \times \frac{\text{Precision} \times \text{Recall}}{\text{Precision} + \text{Recall}} F1 Score=2×Precision+RecallPrecision×Recall
    其中,TP表示真正例(True Positive),TN表示真负例(True Negative),FP表示假正例(False Positive),FN表示假负例(False Negative)。

2. 代码实现

以下是评估模型的代码实现:

def evaluate_model(model, data_loader):model.eval()correct = 0total = 0with torch.no_grad():for images, labels in data_loader:outputs = model(images)_, predicted = torch.max(outputs.data, 1)total += labels.size(0)correct += (predicted == labels).sum().item()accuracy = 100 * correct / totalreturn accuracy
# 假设有一个验证数据加载器val_data_loader
accuracy = evaluate_model(siamese_net, val_data_loader)
print(f'Validation Accuracy: {accuracy}%')

3. 模型优化

在模型训练过程中,可以通过以下方法来优化模型:

  • 调整学习率:使用学习率衰减策略,如学习率预热(Warm-up)、学习率衰减(ReduceLROnPlateau)等。
  • 数据增强:应用图像旋转、缩放、裁剪、颜色变换等数据增强技术。
  • 模型正则化:使用权重衰减(L2正则化)、Dropout等技术来减少过拟合。
  • 模型融合:结合多个模型的预测结果来提高准确率。

八、总结

本文详细介绍了基于PyTorch的人脸检测识别技术,包括MTCNN模型、Siamese network以及多种损失函数的数学原理和代码实现。通过掌握这些技术和方法,读者可以构建自己的人脸识别模型,并应用于实际项目中。在实际应用中,需要不断地优化模型,以提高识别准确率和系统的鲁棒性。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/379870.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

qml 实现一个listview

主要通过qml实现listvie功能&#xff0c;主要包括右键菜单&#xff0c;滚动条&#xff0c;拖动改变内容等&#xff0c;c 与 qml之间的变量和函数的调用。 main.cpp #include <QQuickItem> #include <QQmlContext> #include "testlistmodel.h" int main…

Java里的引用详解

1.体验方法引用 方法引用的出现原因 在使用Lambda表达式的时候&#xff0c;我们实际上传递进去的代码就是一种解决方案&#xff1a;拿参数做操作 那么考虑一种情况&#xff1a;如果我们在Lambda中所指定的操作方案&#xff0c;已经有地方存在相同方案&#xff0c;那是否还有必要…

PHP房产中介租房卖房平台微信小程序系统源码

​&#x1f3e0;【租房卖房新选择】揭秘房产中介小程序&#xff0c;一键搞定置业大事&#xff01;&#x1f3e1; &#x1f50d;【开篇&#xff1a;告别繁琐&#xff0c;拥抱便捷】&#x1f50d; 还在为找房子跑断腿&#xff1f;为卖房发愁吗&#xff1f;今天给大家安利一个超…

JavaScript 获取 url(get)参数

https://andi.cn/page/621584.html

pytorch学习(八)Dataset加载分类数据集

我们之前用torchvision加载了pytorch的网络数据集&#xff0c;现在我们用Dataset加载自己的数据集&#xff0c;并且使用DataLoader做成训练数据集。 图像是从网上下载的&#xff0c;网址是 点这里&#xff0c;标签是图像文件夹名字。下载完成后作为自己的数据集。 1.加载自己…

PyTorch 深度学习实践-循环神经网络基础篇

视频指路 参考博客笔记 参考笔记二 文章目录 上课笔记基于RNNCell实现总代码 基于RNN实现总代码 含嵌入层的RNN网络嵌入层的作用含嵌入层的RNN网络架构总代码 其他RNN扩展基本注意力机制自注意力机制&#xff08;Self-Attention&#xff09;自注意力计算多头注意力机制&#xf…

RPC与服务的注册发现

文章目录 1. 什么是远程过程调用(RPC)?2. RPC的流程3. RPC实践4. RPC与REST的区别4.1 RPC与REST的相似之处4.2 RPC与REST的架构原则4.3 RPC与REST的主要区别 5. RPC与服务发现5.1 以zookeeper为服务注册中心5.2 以etcd为服务注册中心 6. 小结参考 1. 什么是远程过程调用(RPC)?…

TCP三次握手与四次挥手详解

1.什么是TCP TCP&#xff08;Transmission Control Protocol&#xff0c;传输控制协议&#xff09;是一种面向连接的、可靠的、基于字节流的通信协议&#xff0c;属于互联网协议族&#xff08;TCP/IP&#xff09;的一部分。TCP 提供可靠的、顺序的、无差错的数据传输服务&…

win11家庭版怎么升级专业版

随着Windows 11的推出&#xff0c;许多用户享受到了全新的用户界面和功能。然而&#xff0c;Windows 11家庭版在某些高级功能上有所限制&#xff0c;例如&#xff0c;组策略管理、远程桌面连接等。为了满足更多的工作需求&#xff0c;许多用户希望将Windows 11家庭版升级到专业…

十、Java集合 ★ ✔(模块18-20)【泛型、通配符、List、Set、TreeSet、自然排序和比较器排序、Collections、可变参数、Map】

day05 泛型,数据结构,List,Set 今日目标 泛型使用 数据结构 List Set 1 泛型 1.1 泛型的介绍 ★ 泛型是一种类型参数&#xff0c;专门用来保存类型用的 最早接触泛型是在ArrayList&#xff0c;这个E就是所谓的泛型了。使用ArrayList时&#xff0c;只要给E指定某一个类型…

分布式IO系统BL201 Profinet耦合器

BL201耦合器是一个数据采集和控制系统&#xff0c;基于强大的32 位微处理器设计&#xff0c;采用Linux操作系统&#xff0c;是一种模块化的分布式I/O系统。该系统由3部分组成&#xff1a;现场总线耦合器和各种类型的&#xff08;数字和模拟信号以及特殊功能&#xff09;I/O模块…

Keka for Mac v1.4.3 中文下载 解压/压缩工具

Mac分享吧 文章目录 效果一、下载软件二、开始安装1、双击运行软件&#xff0c;将其从左侧拖入右侧文件夹中&#xff0c;等待安装完毕2、应用程序显示软件图标&#xff0c;表示安装成功 三、运行测试1、打开软件2、文件访问权限修改3、访达扩展 安装完成&#xff01;&#xff…

Ubantu 使用 docker 配置 + 远程部署 + 远程开发

大家好我是苏麟 , Ubantu 一些配置 . 视频 : 服务器很贵&#xff1f;搞台虚拟机玩玩&#xff01;保姆级 Linux 远程开发教程_哔哩哔哩_bilibili Docker安装及配置 安装命令 : sudo apt install docker.io 查看版本号 : docker -v 查看虚拟机地址命令 : ifconfig 虚拟机地址 或…

【Android】 dp与sp,加冕为王

目录 重要概念 屏幕尺寸 屏幕分辨率 屏幕像素密度 基础知识&#xff1a; ppi pt DPI 的定义和重要性 Android 中的 DPI 级别 px dp&#xff08;Density Independent Pixels&#xff09; sp&#xff08;Scale-independent Pixels&#xff09; 安卓的dp/dip、sp 虚拟…

PlantUML-UML 绘图工具安装、Graphviz安装、本地使用/在线使用、语法、图示案例

文章目录 前言本地安装vscode安装插件下载安装Graphviz配置Graphviz环境变量测试 在线使用演示PlantUML语法总结活动图&#xff08;新语法&#xff09;时序图类图用例图其他图 更多相关内容可查看 前言 本篇提供两种使用方式分别为 在线使用地址1&#xff1a;https://www.pla…

【日常记录】【插件】excel.js导出的时候给单元格设置下拉选择、数据校验等

文章目录 1. 代码基本结构2. 导出的excel 某单元格的值设置为下拉选择3. 如何把下拉选择项设置为动态4. 单元格设置校验、提示5. 在WPS上的设置 1. 代码基本结构 <!DOCTYPE html> <html lang"en"><head><meta charset"UTF-8"><…

Gitee使用教程2-克隆仓库(下载项目)并推送更新项目

一、下载 Gitee 仓库 1、点击克隆-复制代码 2、打开Git Bash 并输入复制的代码 下载好后&#xff0c;找不到文件在哪的可以输入 pwd 找到仓库路径 二、推送更新 Gitee 项目 1、打开 Git Bash 用 cd 命令进入你的仓库&#xff08;我的仓库名为book&#xff09; 2、添加文件到 …

容器化部署prometheus后再监控docker容器

一、主机部署Prometheus、cadvisor、grafana、node-exporter 1、部署cadvisor收集节点容器信息 docker run -v /:/rootfs:ro -v /var/run:/var/run/:rw -v /sys:/sys:ro -v /var/lib/docker:/var/lib/docker:ro -p 8080:8080 --detachtrue --namecadvisor google/cadvisor 2、…

在线 PDF 制作者泄露用户上传的文档

两家在线 PDF 制作者泄露了数万份用户文档&#xff0c;包括护照、驾驶执照、证书以及用户上传的其他个人信息。 我们都经历过这样的情况&#xff1a;非常匆忙&#xff0c;努力快速制作 PDF 并提交表单。许多人向在线 PDF 制作者寻求帮助&#xff0c;许多人的祈祷得到了回应。 …

PolarisMesh源码系列--Polaris-Go注册发现流程

导语 北极星是腾讯开源的一款服务治理平台&#xff0c;用来解决分布式和微服务架构中的服务管理、流量管理、配置管理、故障容错和可观测性问题。在分布式和微服务架构的治理领域&#xff0c;目前国内比较流行的还包括 Spring Cloud&#xff0c;Apache Dubbo 等。在 Kubernete…