卷积神经网络全解!CNN结构、训练与优化全维度介绍!

目录

  • 一、引言
    • 1.1 背景和重要性
    • 1.2 卷积神经网络概述
  • 二、卷积神经网络层介绍
    • 2.1 卷积操作
      • 卷积核与特征映射
        • 卷积核大小
        • 多通道卷积
      • 步长与填充
        • 步长
        • 填充
      • 空洞卷积(Dilated Convolution)
      • 分组卷积(Grouped Convolution)
    • 2.2 激活函数
      • ReLU激活函数
        • 优势与劣势
      • Leaky ReLU
      • Sigmoid激活函数
        • 优势与劣势
      • Tanh激活函数
        • 优势与劣势
      • Swish激活函数
      • 其他激活函数
      • 激活函数的选择
    • 2.3 池化层
      • 最大池化(Max Pooling)
        • 优势与劣势
      • 平均池化(Average Pooling)
        • 优势与劣势
      • 全局平均池化(Global Average Pooling)
      • 池化窗口大小和步长
      • 池化的替代方案
      • 池化层的选择
    • 2.4 归一化层
      • 批量归一化(Batch Normalization)
        • 优势与劣势
      • 层归一化(Layer Normalization)
      • 实例归一化(Instance Normalization)
      • 组归一化(Group Normalization)
      • 归一化层的选择
  • 三、训练与优化
    • 3.1 训练集准备与增强
      • 数据预处理
      • 数据增强
        • 常见增强技巧
      • 训练集分割
  • 3.2 损失函数
    • 回归任务
    • 分类任务
    • 优化损失函数
  • 3.3 优化器
    • 随机梯度下降(SGD)
    • 自适应优化器
    • 优化器选择注意事项
  • 3.4 学习率调整
    • 固定学习率
    • 学习率调度
      • 预定调整
      • 自适应调整
    • 学习率预热
  • 3.5 正则化技巧
    • L1和L2正则化
    • Dropout
    • Batch Normalization
    • 数据增强
  • 3.6 模型评估与调优
    • 交叉验证
    • 调参技巧
    • 早停技巧
    • 模型集成
  • 4. 总结

本文全面探讨了卷积神经网络CNN,深入分析了背景和重要性、定义与层次介绍、训练与优化,详细分析了其卷积层、激活函数、池化层、归一化层,最后列出其训练与优化的多项关键技术:训练集准备与增强、损失函数、优化器、学习率调整、正则化技巧与模型评估调优。旨在为人工智能学者使用卷积神经网络CNN提供全面的指导。

作者 TechLead,拥有10+年互联网服务架构、AI产品研发经验、团队管理经验,同济本复旦硕,复旦机器人智能实验室成员,阿里云认证的资深架构师,项目管理专业人士,上亿营收AI产品研发负责人

一、引言

卷积神经网络(Convolutional Neural Networks, CNN)的复杂性和灵活性使其成为深度学习领域的核心研究主题之一。在本引言部分中,我们将深入探讨CNN的历史背景、基本原理、重要性以及其在科学和工业领域的影响。
file

1.1 背景和重要性

卷积神经网络的灵感源自人类视觉系统,特别是视觉皮层中的神经元结构。自Hubel和Wiesel在1962年的开创性工作以来,这一理念已经引发了一系列研究和发展。

  1. 早期发展: 由Yann LeCun等人在上世纪80年代末到90年代初开发的LeNet-5被视为第一个成功的卷积神经网络。LeNet-5在手写数字识别方面取得了令人印象深刻的结果。
  2. 现代崛起: 随着硬件的快速进展和大数据的涌现,CNN在21世纪初开始重新崛起,并在各个领域实现了突破性进展。

CNN的重要性不仅体现在其精度和效率上,而且还体现在其理论洞见上。例如,卷积层通过共享权重减少了参数数量,这有助于更有效地训练模型,还增强了模型对平移不变性的理解。

1.2 卷积神经网络概述

卷积神经网络是一种前馈神经网络,它的人工神经元可以响应周围单元的局部区域,从而能够识别视觉空间的部分结构特征。以下是卷积神经网络的关键组成部分:

  1. 卷积层: 通过卷积操作检测图像的局部特征。
  2. 激活函数: 引入非线性,增加模型的表达能力。
  3. 池化层: 减少特征维度,增加模型的鲁棒性。
  4. 全连接层: 在处理空间特征后,全连接层用于进行分类或回归。

卷积神经网络的这些组件协同工作,使得CNN能够从原始像素中自动学习有意义的特征层次结构。随着深度增加,这些特征从基本形状和纹理逐渐抽象为复杂的对象和场景表现。

卷积神经网络的独特优势在于其能够自动化许多传统机器学习中需要人工干预的特征工程部分。这一点不仅使其在许多任务中取得了优越性能,还激发了广泛的学术和工业界的兴趣。


二、卷积神经网络层介绍

卷积神经网络由多个层组成,每个层具有特定的目的和功能。这一部分将探讨卷积操作、激活函数、池化层、归一化层基本概念。

2.1 卷积操作

卷积操作是卷积神经网络的核心,涉及多个复杂的概念和细节。我们将逐一介绍它们。
file

卷积核与特征映射

卷积核是一个小型的矩阵,通过在输入上滑动来生成特征映射。每个卷积核都能捕获不同的特征,例如边缘、角点等。

卷积核大小

file
卷积核的大小影响了它能捕获的特征的尺度。较小的卷积核可以捕获更细致的特征,而较大的卷积核可以捕获更广泛的特征。

# 使用3x3的卷积核
conv_layer_small = nn.Conv2d(3, 64, 3)
# 使用5x5的卷积核
conv_layer_large = nn.Conv2d(3, 64, 5)

多通道卷积

在多通道输入下进行卷积,每个输入通道与一个卷积核进行卷积,然后所有的结果相加。这允许模型从不同的通道捕获不同的特征。

步长与填充

步长和填充控制卷积操作的几何属性。

步长

步长定义了卷积核在输入上移动的速度。较大的步长可以减少输出的尺寸,而较小的步长则保持尺寸不变。

# 使用步长2
conv_layer_stride2 = nn.Conv2d(3, 64, 3, stride=2)

填充

填充通过在输入边缘添加零来控制输出的尺寸。这有助于控制信息在卷积操作中的丢失。

# 使用填充1,使得输出尺寸与输入尺寸相同(假设步长为1)
conv_layer_padding1 = nn.Conv2d(3, 64, 3, padding=1)

空洞卷积(Dilated Convolution)

空洞卷积是一种扩展卷积核感受野的方法,它在卷积核的元素之间插入空白。这允许网络捕获更广泛的信息,而不增加卷积核的大小或计算量。

# 使用空洞率2的卷积核
conv_layer_dilated = nn.Conv2d(3, 64, 3, dilation=2)

分组卷积(Grouped Convolution)

分组卷积通过将输入通道分组并对每组使用不同的卷积核来扩展卷积操作。这增加了模型的容量,并使其能够学习更复杂的表示。

# 使用2个分组
conv_layer_grouped = nn.Conv2d(3, 64, 3, groups=2)

2.2 激活函数

file
激活函数在神经网络中起到了至关重要的作用。它们增加了模型的非线性,从而使其能够学习和逼近复杂的函数。

ReLU激活函数

ReLU(Rectified Linear Unit)是现代深度学习中最流行的激活函数之一。它是非线性的,但计算非常高效。

优势与劣势

ReLU的主要优点是计算效率高和促进稀疏激活。然而,它可能会导致"死亡ReLU"现象,其中某些神经元永远不会被激活。

# 使用PyTorch定义ReLU激活函数
relu = nn.ReLU()

Leaky ReLU

Leaky ReLU是ReLU的一种变体,允许负输入值的小正斜率。这有助于缓解"死亡ReLU"问题。

# 使用PyTorch定义Leaky ReLU激活函数
leaky_relu = nn.LeakyReLU(0.01)

Sigmoid激活函数

Sigmoid激活函数可以将任何值压缩到0和1之间。

优势与劣势

Sigmoid用于输出层可以表示概率,但在隐藏层中可能会导致梯度消失问题。

# 使用PyTorch定义Sigmoid激活函数
sigmoid = nn.Sigmoid()

Tanh激活函数

Tanh是另一个类似于Sigmoid的激活函数,但它将输出压缩到-1和1之间。

优势与劣势

Tanh通常优于Sigmoid,因为它的输出范围更大,但仍可能导致梯度消失。

# 使用PyTorch定义Tanh激活函数
tanh = nn.Tanh()

Swish激活函数

Swish是一种自适应激活函数,可能会自动调整其形状以适应特定问题。

# 使用PyTorch定义Swish激活函数
class Swish(nn.Module):def forward(self, x):return x * torch.sigmoid(x)

其他激活函数

还有许多其他激活函数,例如Softmax、Mish、ELU等,各有各的优点和适用场景。

激活函数的选择

激活函数的选择取决于许多因素,例如模型架构、数据类型和特定任务的需求。通过实验和调整,可以找到适合特定问题的最佳激活函数。

2.3 池化层

file
池化层(Pooling Layer)在卷积神经网络中扮演了重要角色,通常用于降低特征映射的维度,从而减少计算需求,并增加特征检测器的感受野。

最大池化(Max Pooling)

最大池化是最常用的池化技术之一。它通过选择窗口中的最大值来降低特征映射的尺寸。

# 使用PyTorch定义2x2的最大池化层
max_pooling = nn.MaxPool2d(2)

优势与劣势

最大池化的主要优点是它能保留窗口中的最显著特征。然而,它会丢失一些细节信息。

平均池化(Average Pooling)

与最大池化不同,平均池化使用窗口中所有值的平均值。

# 使用PyTorch定义2x2的平均池化层
average_pooling = nn.AvgPool2d(2)

优势与劣势

平均池化可以减轻最大池化可能导致的过于突出某些特征的问题,但可能会淡化一些重要特征。

全局平均池化(Global Average Pooling)

全局平均池化是一种更复杂的池化策略,它计算整个特征映射的平均值。这常用于网络的最后一层,直接用于分类。

# 使用PyTorch定义全局平均池化层
global_average_pooling = nn.AdaptiveAvgPool2d(1)

池化窗口大小和步长

池化窗口的大小和步长会直接影响输出的尺寸。较大的窗口和步长会更显著地降低尺寸。

池化的替代方案

池化层已经有了一些现代替代方案,例如使用卷积层的步长大于1,或使用空洞卷积。这些方法可能提供更好的特征保存。

池化层的选择

选择特定类型的池化层取决于任务需求和特定数据特性。深入理解各种池化技术如何工作,可以帮助深入理解它们是如何影响模型性能的。

2.4 归一化层

file
归一化层在训练深度神经网络时扮演了关键角色,主要用于改善训练的稳定性和速度。通过将输入数据缩放到合适的范围,归一化层有助于缓解训练过程中的梯度消失和梯度爆炸问题。

批量归一化(Batch Normalization)

批量归一化通过对每个特征通道的输入进行归一化,将输入缩放到零均值和单位方差。

# 使用PyTorch定义批量归一化层
batch_norm = nn.BatchNorm2d(num_features=64)

优势与劣势

  • 优势:它允许更高的学习率,提供了一些正则化效果,通常导致更快的训练。
  • 劣势:在小批量上的统计估计可能会导致训练和推理间的不一致。

层归一化(Layer Normalization)

层归一化是在单个样本上对所有特征进行归一化的变体。它在句子处理和循环神经网络中特别流行。

# 使用PyTorch定义层归一化
layer_norm = nn.LayerNorm(normalized_shape=64)

实例归一化(Instance Normalization)

实例归一化主要用于样式转换任务,归一化是在每个样本的每个通道上独立进行的。

# 使用PyTorch定义实例归一化
instance_norm = nn.InstanceNorm2d(num_features=64)

组归一化(Group Normalization)

组归一化是批量归一化和层归一化之间的一种折衷方案,将通道分为不同的组,并在每个组内进行归一化。

# 使用PyTorch定义组归一化
group_norm = nn.GroupNorm(num_groups=32, num_channels=64)

归一化层的选择

归一化层的选择应基于特定的任务和模型架构。例如,在视觉任务中,批量归一化可能是首选,而在NLP任务中,层归一化可能更有用。


三、训练与优化

file
卷积神经网络的训练和优化涉及许多关键组件和技术,它们共同决定了模型的性能和可用性。下面详细介绍这些方面。

3.1 训练集准备与增强

有效的训练数据是深度学习成功的基础。为了使卷积神经网络有效学习,训练集的选择和增强至关重要。

数据预处理

预处理是训练集准备的关键步骤,包括:

  • 标准化:将输入缩放到0-1范围。
  • 中心化:减去均值,使数据以0为中心。
  • 数据清洗:消除不一致和错误的数据。

数据增强

数据增强是一种通过应用随机变换增加数据量的技术,从而增加模型的泛化能力。

常见增强技巧

  • 图像旋转、缩放和剪裁
  • 颜色抖动
  • 随机噪声添加
# 使用PyTorch进行多种图像增强
from torchvision import transforms
transform = transforms.Compose([transforms.RandomRotation(10),transforms.RandomResizedCrop(224),transforms.ColorJitter(brightness=0.2, contrast=0.2, saturation=0.2, hue=0.1)
])

训练集分割

通常将数据分为训练集、验证集和测试集,以确保模型不会过拟合。

3.2 损失函数

损失函数衡量模型预测与真实目标之间的差距。选择适当的损失函数是优化模型性能的关键步骤。

回归任务

对于连续值预测,通常使用:

  • 均方误差(MSE):衡量预测值与真实值之间的平方差。
# 使用PyTorch定义MSE损失
mse_loss = nn.MSELoss()
  • 平滑L1损失:减少异常值的影响。

分类任务

对于类别预测,常见的损失函数包括:

  • 交叉熵损失:衡量预测概率分布与真实分布之间的差异。
# 使用PyTorch定义交叉熵损失
cross_entropy_loss = nn.CrossEntropyLoss()
  • 二元交叉熵损失:特别用于二分类任务。
  • 多标签损失:适用于多标签分类。

优化损失函数

选择适当的损失函数不仅取决于任务类型,还与模型架构、数据分布和特定的业务指标有关。有时,自定义损失函数可能是必要的,以便捕捉特定问题的核心挑战。

3.3 优化器

优化器用于更新神经网络的权重,以便最小化损失函数。每种优化器都有其特定的数学原理和应用场景。

随机梯度下降(SGD)

SGD是最基本的优化算法。

  • 基本SGD: 按照负梯度方向更新权重。
  • 带动量的SGD: 引入动量项,积累之前的梯度,以便更平稳地收敛。
# 使用PyTorch定义带动量的SGD优化器
optimizer_sgd_momentum = torch.optim.SGD(model.parameters(), lr=0.01, momentum=0.9)

自适应优化器

自适应优化器能自动调整学习率。

  • Adam: 结合了Momentum和RMSProp的优点。
# 使用PyTorch定义Adam优化器
optimizer_adam = torch.optim.Adam(model.parameters(), lr=0.001)
  • Adagrad、RMSprop等: 针对不同参数有不同的学习率。

优化器选择注意事项

  • 任务相关性: 不同优化器在不同任务和数据上可能有不同的效果。
  • 超参数调优: 如学习率、动量等可能需要调整。

3.4 学习率调整

学习率是优化器中的关键超参数,其调整对模型训练有深远影响。

固定学习率

最简单的方法是使用固定学习率。但可能不够灵活。

学习率调度

更复杂的方法是在训练过程中动态调整学习率。

预定调整

  • 步骤下降: 在固定步骤处降低学习率。
  • 余弦退火: 周期性调整学习率。
# 使用PyTorch定义余弦退火调度器
scheduler = torch.optim.lr_scheduler.CosineAnnealingLR(optimizer_adam, T_max=50)

自适应调整

  • ReduceLROnPlateau: 基于验证损失降低学习率。

学习率预热

训练初期逐渐增加学习率。

  • 线性预热: 初始阶段线性增加学习率。

3.5 正则化技巧

正则化是防止过拟合和提高模型泛化能力的关键技术。

L1和L2正则化

  • L1正则化:倾向于产生稀疏权重,有助于特征选择。
  • L2正则化:减小权重,使模型更平滑。
# 使用PyTorch添加L1和L2正则化
l1_lambda = 0.0005
l2_lambda = 0.0001
loss = loss + l1_lambda * torch.norm(weights, 1) + l2_lambda * torch.norm(weights, 2)

Dropout

随机关闭一部分神经元,使模型更鲁棒。

  • 普通Dropout:随机丢弃神经元。
  • Spatial Dropout:在卷积层中随机丢弃整个特征图。

Batch Normalization

通过标准化层输入,加速训练并减轻初始化的敏感性。

数据增强

如前所述,数据增强是一种重要的正则化手段。

3.6 模型评估与调优

模型评估是衡量模型性能的过程,调优则是改进性能。

交叉验证

使用交叉验证来估计模型的泛化能力。

  • k-折交叉验证:将数据分为k个部分,轮流使用其中一个作为验证集。

调参技巧

  • 网格搜索:尝试不同超参数组合。
  • 随机搜索:随机选择超参数,更高效。

早停技巧

如果验证损失不再下降,则停止训练,以防止过拟合。

模型集成

通过结合多个模型来提高性能。

  • Bagging:训练多个模型并平均预测。
  • Boosting:在先前模型的错误上训练新模型。
  • Stacking:使用新模型组合其他模型的预测。

4. 总结

file
本文全面探讨了卷积神经网络CNN,深入分析了背景和重要性、定义与层次介绍、训练与优化,详细分析了其卷积层、激活函数、池化层、归一化层,最后列出其训练与优化的多项关键技术:训练集准备与增强、损失函数、优化器、学习率调整、正则化技巧与模型评估调优。旨在为人工智能学者使用卷积神经网络CNN提供全面的指导。

作者 TechLead,拥有10+年互联网服务架构、AI产品研发经验、团队管理经验,同济本复旦硕,复旦机器人智能实验室成员,阿里云认证的资深架构师,项目管理专业人士,上亿营收AI产品研发负责人

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/95647.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Wlan安全——认证与加密方式(WPA/WPA2)

目录 终端认证技术 WEP认证 PSK认证 802.1x认证与MAC认证 Portal认证 数据加密技术 WEP加密 TKIP加密 CCMP加密 TKIP和CCMP生成密钥所需要的密钥信息 802.11安全标准 WEP共享密钥认证、加密工作原理 WEP共享密钥认证 WEP加解密过程 PSK认证以及生成动态密钥的工…

【数据结构与算法——TypeScript】图结构(Graph)

【数据结构与算法——TypeScript】 图结构(Graph) 认识图结构以及特性 什么是图? 在计算机程序设计中,图结构 也是一种非常常见的数据结构。 但是,图论其实是一个非常大的话题 认识一下关于图的一些内容 图的抽象数据类型一些算法实现。 什么是图?…

Can‘t find end of central directory : is this a zip file ? at XMLHttpRequest

导出woed出现这个报错,原因其实很简单,路径写错了, 这个word首先必须是docx格式,然后必须放在public文件包下 如果放在public文件包下还没有用,则放在public包下 参考帖子: https://www.cnblogs.com/hejun26/p/13647927.html

Android Studio实现解析HTML获取图片URL,将URL存到list,进行瀑布流展示

目录 效果展示build.gradle(app)添加的依赖(用不上的可以不加)AndroidManifest.xml错误代码activity_main.xmlitem_image.xmlMainActivityImage适配器ImageModel 接收图片URL效果展示 build.gradle(app)添加的依赖(用不上的可以不加) dependencies {implementation co…

安防监控视频云存储平台EasyNVR出现内核报错的情况该如何解决?

安防视频监控汇聚EasyNVR视频集中存储平台,是基于RTSP/Onvif协议的安防视频平台,可支持将接入的视频流进行全平台、全终端分发,分发的视频流包括RTSP、RTMP、HTTP-FLV、WS-FLV、HLS、WebRTC等格式。 近期有用户联系到我们,EasyNVR…

[LitCTF 2023]Ping

因为直接ping会有弹窗。这里在火狐f12,然后f1选禁用javascript,然后ping 然后输入127.0.0.1;cat /flag 得到flag, 查看其他大佬的wp ,这里还可以抓包。但是不知道为什么我这里的burp 用不了

「新整理」战略定位理论发展史

1954年,彼得德鲁克——现代管理学之父 代表作《管理的实践》 提出具有划时代意义的概念——目标管理,将管理划分为战略管理、组织管理和自我管理。将生产力从生产部门扩大到组织的所有职能部门,以知识精英为代表的职业经理人开始代替资本家走…

python ORM框架 sqlAlchemy

背景 最近在研究mysql的ORM框架,忽然看到了一个pip的包sqlalchemy,让我觉得很神奇,用下来的感觉和java的hibernate差不多,后边的链式查询又让我觉得和我很喜欢用的mybatis plus差不多,于是抱着好奇加上学习的态度&…

Docker中为RabbitMQ安装rabbitmq_delayed_message_exchange延迟队列插件

1、前言 rabbitmq_delayed_message_exchange是一款向RabbitMQ添加延迟消息传递(或计划消息传递)的插件。 插件下载地址:https://www.rabbitmq.com/community-plugins.html 1、下载插件 首先需要确定我们当前使用的RabbitMQ的版本&#xff0c…

特殊数字专题

特殊数字 1.奇数2.偶数3.完数4.素数5.回文数6.水仙花数7.中位数9.随机数11.求年份&#xff1a;闰年12.求数字&#xff1a;两个整数的最大公约数及最小公倍数 1.奇数 代码案例&#xff1a; //输出所有1-1000之间的奇数 #define _CRT_SECURE_NO_WARNINGS 1 #include<stdio.h&…

基于STM32+FreeRTOS的四轴机械臂

目录 项目概述&#xff1a; 一 准备阶段&#xff08;都是些废话&#xff09; 二 裸机测试功能 1.摇杆控制 接线&#xff1a; CubeMX配置&#xff1a; 代码&#xff1a; 2.蓝牙控制 接线&#xff1a; CubeMX配置 代码&#xff1a; 3.示教器控制 4.记录动作信息 5.执…

分布式 - 消息队列Kafka:Kafka 消费者消费位移的提交方式

文章目录 1. 自动提交消费位移2. 自动提交消费位移存在的问题&#xff1f;3. 手动提交消费位移1. 同步提交消费位移2. 异步提交消费位移3. 同步和异步组合提交消费位移4. 提交特定的消费位移5. 按分区提交消费位移 4. 消费者查找不到消费位移时怎么办&#xff1f;5. 如何从特定…

不花一分钱,利用免费电脑软件将视频MV变成歌曲音频MP3

教程 1.点击下载电脑软件下载地址&#xff0c;点击下载&#xff0c;安装。&#xff08;没有利益关系&#xff0c;没有打广告&#xff0c;只是单纯教学&#xff09; 2.安装完成后&#xff0c;点击格式工厂 3.然后如图所示依次&#xff0c;点击【音频】->【-MP3】 3.然后点击…

C#反编译工具ILSPY

ILSPY ILSpy 是一个开源的.Net程序集浏览器和反编译工具。 Visual Studio 2022附带了默认情况下启用的F12反编译支持&#xff08;使用我们的引擎v7.1&#xff09;。 在Visual Studio 2019中&#xff0c;您必须手动启用F12支持。转到“工具”/“选项”/“文本编辑器”/C#/Adva…

Kotlin协程runBlocking并发launch,Semaphore同步1个launch任务运行

Kotlin协程runBlocking并发launch&#xff0c;Semaphore同步1个launch任务运行 <dependency><groupId>org.jetbrains.kotlinx</groupId><artifactId>kotlinx-coroutines-core</artifactId><version>1.7.3</version><type>pom&…

2023国赛数学建模思路 - 复盘:光照强度计算的优化模型

文章目录 0 赛题思路1 问题要求2 假设约定3 符号约定4 建立模型5 模型求解6 实现代码 建模资料 0 赛题思路 &#xff08;赛题出来以后第一时间在CSDN分享&#xff09; https://blog.csdn.net/dc_sinor?typeblog 1 问题要求 现在已知一个教室长为15米&#xff0c;宽为12米&…

LVS+keepalived群集

keepalived概述 keepalived软件就是通过vrrp协议来实现高可用功能 vrrp通信原理 vrrp就是虚拟路由冗余协议&#xff0c;它的出现就是为了解决静态路由的单点故障 vrrp是通过一种竞选的一种协议机制&#xff0c;来将路由交给某台vrrp路由器 vrrp用的IP是多播的方式&#xff…

设计模式之原型模式

文章目录 一、介绍二、实现步骤三、案例四、应用五、细胞分裂六、改造细胞分裂逻辑七、总结 一、介绍 原型模式属于创建型设计模式&#xff0c;用于创建重复的对象&#xff0c;且同时又保证了性能。 该设计模式的好处是将对象的创建与调用方分离。 其目的就是**根据一个对象…

【UE】Web Browser内嵌网页在场景中的褪色问题

使用WebBrowser放置在场景中时&#xff0c;网页颜色会出现异常的褪色。 这是因为 Web 浏览器插件以 sRGB 格式输出其颜色数据&#xff0c;而 Widget/3D Widget 需要线性 RGB 格式的数据。 可以通过创建在 3D Widget 中使用的新材质&#xff08;而不是默认的 Widget3DPassthr…

数字化施工:解决传统施工难题,提高施工效率和质量的行业革命

建筑行业是我国国民经济的重要组成部分&#xff0c;也是支柱性产业之一。然而&#xff0c;建筑业同时也是一个安全事故多发的高风险行业。如何加强施工现场的安全管理&#xff0c;降低事故发生的频率&#xff0c;避免各种违规操作和不文明施工&#xff0c;提高建筑工程的质量&a…