一、概述
卷积神经网络(CNN)是深度学习领域的重要算法,特别适用于处理具有网格结构的数据,比如说图像和音频。它起源于二十世纪80至90年代,但真正得到快速发展和应用是在二十一世纪,随着深度学习理论的兴起和计算能力的提升。CNN通过模拟生物的视知觉机制,利用卷积核的参数共享和层间连接的稀疏性,实现了对图像等数据的平移不变分类和特征学习,而无需进行繁琐的特征工程。这些特性使得CNN在计算机视觉、自然语言处理等领域取得了显著成果,成为现代人工智能应用的关键技术之一。
什么是卷积?
在泛函分析中,卷积是一种重要的数学运算,用于通过两个函数f和g生成第三个函数。它的本质是一种特殊的积分变换(两个变量在某个范围内相乘后求和的结果),具体地,它表示函数f与g经过翻转和平移后的重叠部分函数值的乘积对重叠长度的积分。这种运算提供了一种方式来研究函数之间的相互作用和重叠情况。
进一步地,如果将参与卷积的一个函数视为区间的指示函数,卷积运算可以视为“滑动平均”的推广。在滑动平均中,我们考虑一个函数在某一区间内的平均值,而在卷积运算中,我们则通过积分来计算函数在重叠区间上的加权平均值,其中权重由另一个函数给出。因此,卷积运算提供了一种更为灵活和强大的工具来分析函数之间的相互作用和关系。
简单定义:设:f(x),g(x)是R1上的两个可积函数,作积分:
什么是神经网络?
人工神经网络(ANN)自20世纪80年代起已成为人工智能领域的研究热点。它基于对人脑神经元网络的抽象,通过构建由大量节点(神经元)和它们之间的连接(代表加权值或权重)组成的网络模型来模拟人脑的信息处理方式。每个节点通过一个特定的输出函数(激励函数)来处理信息,而网络的输出则取决于节点间的连接方式、权重值和激励函数。
近年来,人工神经网络的研究取得了显著进展,已成功应用于模式识别、智能机器人、自动控制、预测估计、生物、医学、经济等多个领域,解决了许多现代计算机难以处理的复杂问题,展示了其卓越的智能特性。这一技术不仅模拟了人脑的基本结构和功能,还在多个领域实现了对复杂问题的有效处理,展现了广阔的应用前景。
二、卷积神经网络(CNN)
在使用全连接神经网络处理大尺寸图像具有几个明显的缺点:
(1)首先将图像展开为向量会丢失空间信息
(2)其次参数过多效率低下,训练困难
(3)同时大量的参数也很快会导致网络过拟合
(4)忽略了图像中的空间结构信息,因此不能充分利
用图像中的相关特征,导致模型效果不佳。
使用卷积神经网络能够很好地解决这些问题,尤其是大尺寸图像的处理。
一个完整的CNN(卷积神经网络)结构通常包括输入层、卷积层、激活层、池化层、全连接层、输出层。
输入层
数据格式:
- 对于彩色图像,常见的输入数据格式为三维矩阵,通常表示为高度(H)×宽度(W)×颜色通道(C)。例如,对于一张32×32像素的RGB彩色图像,其输入数据将是一个32×32×3的三维矩阵。(32x32是高度x宽度,而后面的三代表的是三种不同的颜色,也就是三原色红(R)、绿(G)、蓝(B)。)
- 对于灰度图像,输入数据为二维矩阵,即高度(H)×宽度(W)。
输入范围:
- 输入图像的像素值通常需要被归一化到一个特定的数值范围内,以便于模型进行训练和推理。常见的归一化方式是将像素值缩放到[0, 1]或[-1, 1]的范围内。
假设我们有一张32×32像素的RGB彩色图像作为输入。首先,我们将这张图像转换为一个32×32×3的三维矩阵。然后,我们将每个像素值归一化到[0, 1]的范围内(即将像素值除以255,因为RGB图像的像素值范围是0-255)。最后,我们将这张归一化后的图像作为输入数据传递给CNN的输入层。
卷积层
卷积是CNN的核心操作,它通过模拟人眼对图像的局部感知特性,使用一定大小的卷积核在输入图像上滑动,并计算卷积核与对应位置图像像素的乘积之和,从而得到新的特征图。不同的卷积核可以提取不同的特征,如边缘、纹理等。通过堆叠多个卷积层,可以逐渐提取出更高层次的抽象特征。在实际应用中,通常会对输入图像进行填充(Padding)操作,以保证卷积后特征图的大小与输入图像相同或按一定比例缩小。
卷积核的初始化
卷积核是用来特征提取的关键参数。在初始化阶段,卷积核通常是随机设定的,并且在训练中根据学习到的数据进行自适应。
卷积运算
卷积运算是卷积层的核心操作。卷积运算将卷积核与输入数据局部区域进行逐点相乘并求和,来提取数据中的局部特征。卷积核会在输入数据的区域上滑动(步长通常为1),每次滑动都与当前位置与卷积核相同维度数量的区域进行卷积运算。卷积运算的结果是一个新的二维矩阵,其大小取决于卷积核的大小、步长和输入数据的填充方式。
激活层
激活层通过将前一层的线性输出通过非线性激活函数处理,从而模拟任意函数,进而增强网络的表征能力。激活层可选的激活函数有很多,不同的激活函数在不同的场景下可能表现出不同的性能。
下面举例几个常用的激活函数:
Sigmoid函数:
- 激活方式:对每个输入数据,利用sigmoid函数执行操作。函数形式为
- 特点:输出值在0到1之间,常用于二分类问题的输出层。但sigmoid函数在深度神经网络中可能导致梯度消失问题。
ReLU(Rectified Linear Unit)函数:
- 激活方式:标准的ReLU函数为 。当输入x大于0时,输出x;当x小于或等于0时,输出0。
- 特点:ReLU是目前使用最多的激活函数,因为它收敛更快,并且在一定程度上缓解了梯度消失问题。
Tanh(Hyperbolic Tangent)函数:
- 激活方式:利用双曲正切函数对数据进行变换,函数形式为 。
- 特点:输出值在-1到1之间,可以看作sigmoid函数的缩放版本。
池化层
池化层主要用于降低特征图的维度和参数数量,同时保留关键信息。它通过对特征图进行下采样来实现这一目的。常见的池化操作包括最大池化和平均池化。池化层有助于模型对输入数据的微小变化(如平移、旋转等)具有鲁棒性。
最大池化(Max Pooling)
假设有一个4x4特征图,将其进行2x2最大池化操作。
定义池化窗口
定义一个池化窗口,这里选择一个2x2的池化窗口(也称为滤波器或核),这个窗口将在特征图上滑动,每次滑动都会覆盖一个2x2的区域。
滑动窗口并选取最大值
池化窗口在滑动的过程中,它会选取当前窗口所有值中的最大值作为输出。假设一个窗口覆盖了特征图左上角4个值[1,2,3,4],那么最大池操作将选择4作为其输出。
重复上述过程,直到将整个特征图遍历完成。(每次的滑动都会得到一个输出的值)
生成池化后的特征图
将所有输出值按照它们在特征图上的相对位置排列,假设从左上方开始滑动窗口,向右下方移动,那么最后会获得一个2x2的矩阵,这个矩阵中的每个值都是由原始特征图中2x2区域中的最大值。
全连接层
- 全连接层位于CNN的尾部,用于对前面提取的特征进行分类或回归。
- 在这一层中,每个神经元都与前一层的所有神经元相连,通过计算加权和并应用激活函数来产生输出。
- 对于分类任务,全连接层的输出通常会通过softmax函数进行归一化,得到每个类别的概率分布。
为什么全连接层也需要使用到激活函数?
- 神经网络主要依赖于非线性激活函数来学习和表示复杂的非线性模式。没有激活函数,神经网络将只能学习线性函数,这极大地限制了其建模能力。通过在每一层(包括全连接层)之后应用激活函数,神经网络可以学习并逼近任何复杂的非线性函数。
- 激活函数将神经元的加权输入映射到新的特征空间,这有助于网络学习更高层次的抽象特征。对于全连接层来说,这种特征空间转换特别重要,因为它需要基于前面层提取的特征来做出最终的分类或回归决策。
某些激活函数(如ReLU)具有稀疏性,这意味着它们可以将一些神经元的输出设置为零,从而保留重要的特征信息并过滤掉不相关的特征。这种稀疏性有助于提高神经网络的泛化能力。(过滤信息和保留信息)
输出层
输出层是模型的最后一层,负责产生最终的预测结果。对于分类任务,输出层可能包含多个神经元,每个神经元对应一个类别;对于回归任务,输出层可能只有一个神经元。
三、总结:
传统的神经网络在处理高维数据的时候容易出现过拟合的现象,而卷积神经网络可以通过扩充数据集以及一定规则的变换来增加模型的泛化能力,从而减少过拟合的风险。此外,卷积神经网络层次分明,较低层次处理基础数据,较高层次的层则组合这些基础特征以表示更抽象的概念。这种层次化也使得卷积神经网络在处理复杂问题时表现出色。
(学习笔记,侵删。)