【深度学习】— 多输入多输出通道、多通道输入的卷积、多输出通道、1×1 卷积层、汇聚层、多通道汇聚层

【深度学习】— 多输入多输出通道、多通道输入的卷积、多输出通道、1×1 卷积层、汇聚层、多通道汇聚层

  • 多输入多输出通道
  • 多通道输入的卷积
    • 示例:多通道的二维互相关运算
  • 多输出通道
    • 实现多通道输出的互相关运算
  • 1×1 卷积层
      • 1×1 卷积的作用
  • 使用全连接层实现 1×1 卷积
    • 小结
  • 汇聚层
    • 汇聚层的作用
    • 最大汇聚层和平均汇聚层
  • 汇聚层的实现
    • 实现汇聚层
    • 示例:验证二维最大汇聚和平均汇聚
  • 填充和步幅在汇聚层中的应用
    • 默认步幅与汇聚窗口大小相同
    • 自定义填充和步幅
    • 不同的矩形汇聚窗口与不同的填充和步幅
  • 多通道汇聚层
    • 示例:多通道汇聚操作
    • 小结

多输入多输出通道

在之前的示例中,我们仅展示了单个输入和单个输出通道的卷积操作,这使得我们可以将输入、卷积核和输出视为二维张量。然而,在实际应用中,输入数据和卷积层常常包含多个通道。例如,彩色图像通常具有 RGB 通道,分别表示红、绿和蓝三种颜色。

当我们引入多个通道时,输入和隐藏表示都变成了三维张量。例如,每个 RGB 输入图像的形状通常为 ( channels × height × width ) = ( 3 , h , w ) (\text{channels} \times \text{height} \times \text{width}) = (3, h, w) (channels×height×width)=(3,h,w),其中第一个轴表示通道(channel)维度。

多通道输入的卷积

当输入数据包含多个通道时,卷积核也需要相应地包含与输入通道数相同的通道数,以便对各通道进行互相关运算。假设输入数据的通道数为 c i c_i ci,则卷积核的输入通道数也应为 c i c_i ci

假设卷积核的窗口形状为 ( k h , k w ) (k_h, k_w) (kh,kw),则:

  • c i = 1 c_i = 1 ci=1 时,卷积核是一个形状为 ( k h , k w ) (k_h, k_w) (kh,kw) 的二维张量。
  • c i > 1 c_i > 1 ci>1 时,每个输入通道都需要一个 ( k h , k w ) (k_h, k_w) (kh,kw) 形状的二维卷积核。因此,卷积核的整体形状为 ( c i , k h , k w ) (c_i, k_h, k_w) (ci,kh,kw)

在多通道输入的卷积运算中,对每个输入通道的二维张量与卷积核对应通道的二维张量分别进行互相关运算。然后,将各通道的运算结果相加,得到最终的二维输出张量。

示例:多通道的二维互相关运算

如下图所示(图 6.4.1),我们演示了一个具有两个输入通道的二维互相关运算。阴影部分表示第一个输出元素及其计算所涉及的输入和卷积核张量的元素。

  1. 输入通道:假设输入数据有两个通道,每个通道为一个二维张量。
  2. 卷积核通道:卷积核同样具有两个通道,每个通道包含一个 ( k h , k w ) (k_h, k_w) (kh,kw) 的二维滤波器。
  3. 输出计算:对于每个输出元素,将输入的每个通道与对应的卷积核通道进行互相关操作,并将结果求和。

这种方式允许卷积层在多个输入通道上进行特征学习,从而提取出更丰富的特征。

在这里插入图片描述

为了加深对多输入通道卷积的理解,我们可以实现一个简单的多输入通道互相关运算。基本思想是对每个输入通道执行互相关操作,并将各通道的结果相加,得到最终的输出。

import torch# 定义多输入通道的互相关运算函数
def corr2d_multi_in(X, K):# 对每个通道执行互相关运算,然后将结果相加return sum(d2l.corr2d(x, k) for x, k in zip(X, K))

我们可以使用对应于图 6.4.1 的输入张量 X 和卷积核张量 K 来验证这个多输入通道互相关运算的输出。

# 构造输入张量 X 和卷积核张量 K
X = torch.tensor([[[0.0, 1.0, 2.0], [3.0, 4.0, 5.0], [6.0, 7.0, 8.0]], [[1.0, 2.0, 3.0], [4.0, 5.0, 6.0], [7.0, 8.0, 9.0]]])K = torch.tensor([[[0.0, 1.0], [2.0, 3.0]], [[1.0, 2.0], [3.0, 4.0]]])# 计算多通道互相关的结果
output = corr2d_multi_in(X, K)
print(output)

输出:

tensor([[ 56.,  72.],[104., 120.]])

通过这个示例,我们可以看到,对于多输入通道的互相关运算,每个通道的互相关结果相加后得到的输出符合预期。这一方法有效地组合了多输入通道的信息,有助于提取更丰富的特征。

多输出通道

到目前为止,无论输入通道有多少,我们在卷积层中都只有一个输出通道。然而,在实际的神经网络中,每一层通常包含多个输出通道,这对于深度学习模型来说至关重要。随着神经网络层数的加深,输出通道的数量常常增加,而空间分辨率则逐步降低,以换取更大的通道深度。

每个输出通道可以视为对不同特征的响应,但这些通道并非独立学习的,而是通过优化以共同使用。因此,多输出通道不仅仅是多个单通道检测器的简单组合。

假设输入通道数为 c i c_i ci,输出通道数为 c o c_o co,卷积核的高度和宽度分别为 k h k_h kh k w k_w kw。为了获得多个通道的输出,我们为每个输出通道创建一个形状为 ( c i , k h , k w ) (c_i, k_h, k_w) (ci,kh,kw) 的卷积核张量,这样卷积核的形状为 ( c o , c i , k h , k w ) (c_o, c_i, k_h, k_w) (co,ci,kh,kw)。在互相关运算中,每个输出通道使用对应的卷积核与所有输入通道进行运算,然后汇总结果。

实现多通道输出的互相关运算

我们可以实现一个函数来计算多个输出通道的卷积操作:

import torch# 定义多输入多输出通道的互相关运算函数
def corr2d_multi_in_out(X, K):# 迭代卷积核 K 的第0个维度,每次对输入 X 进行互相关运算# 最后将结果堆叠成一个输出张量return torch.stack([corr2d_multi_in(X, k) for k in K], 0)

接下来,通过将核张量 KK+1(每个元素加1)和 K+2 连接起来,构造一个具有 3 个输出通道的卷积核。

# 构造一个具有 3 个输出通道的卷积核张量
K = torch.stack((K, K + 1, K + 2), 0)
print(K.shape)

输出:

torch.Size([3, 2, 2, 2])

这表示我们有 3 个输出通道,每个输出通道的卷积核有 2 个输入通道,且每个输入通道的卷积核大小为 2x2。

现在,我们对输入张量 X 和卷积核张量 K 执行互相关运算,输出包含 3 个通道。第一个通道的结果应与之前多输入单输出通道的结果一致:

# 计算多输入多输出通道的卷积结果
output = corr2d_multi_in_out(X, K)
print(output)

输出

tensor([[[ 56., 72.],[104., 120.]],[[ 76., 100.],[148., 172.]],[[ 96., 128.],[192., 224.]]])

1×1 卷积层

1×1 卷积层,即卷积核大小为 ( 1 , 1 ) (1, 1) (1,1) 的卷积层,表面上看起来似乎没有多大意义。卷积的本质通常在于提取相邻像素间的相关特征,而 1×1 卷积显然无法做到这一点。然而,1×1 卷积在许多深层网络的设计中十分流行,并有着独特的作用。

由于采用了最小的窗口,1×1 卷积失去了在高度和宽度维度上捕捉相邻元素相互作用的能力。事实上,1×1 卷积的唯一计算发生在通道维度上。图 6.4.2 展示了使用 1×1 卷积核的多输入多输出通道的互相关计算,其中输入和输出具有相同的高度和宽度。输出中的每个元素都是从输入图像中同一位置的多个通道元素的线性组合。

在这里插入图片描述

在这种情况下,可以将 1×1 卷积视为一个在每个像素位置应用的全连接层,即将输入的多个通道值映射为输出的多个通道值。由于 1×1 卷积仍然是一个卷积层,跨像素位置的权重是一致的。这种卷积层需要的权重维度为 ( c o , c i , 1 , 1 ) (c_o, c_i, 1, 1) (co,ci,1,1),外加一个偏置项。

1×1 卷积的作用

1×1 卷积主要用于以下几种情况:

  1. 增加或减少通道维度:通过调整输出通道数,1×1 卷积可以增加或减少通道数,帮助控制模型复杂度。
  2. 跨通道特征融合:在不改变空间分辨率的前提下,通过线性组合各通道的信息,使得不同通道的特征得以融合。
  3. 非线性特征映射:配合非线性激活函数,1×1 卷积能够在网络中实现跨通道的非线性映射。

因此,尽管 1×1 卷积不会改变输入的空间维度,它在深层网络中起到了连接通道特征、调控模型复杂度的关键作用。

使用全连接层实现 1×1 卷积

在 1×1 卷积中,每个输出像素仅与输入中相同位置的像素相关。因此,我们可以通过将 1×1 卷积转化为全连接层来实现,这需要对输入和输出的数据形状进行调整。

import torch# 使用全连接层实现 1×1 卷积
def corr2d_multi_in_out_1x1(X, K):c_i, h, w = X.shape  # 输入的通道数和空间维度c_o = K.shape[0]     # 输出通道数X = X.reshape((c_i, h * w))  # 调整输入的形状K = K.reshape((c_o, c_i))    # 调整卷积核的形状# 全连接层中的矩阵乘法Y = torch.matmul(K, X)return Y.reshape((c_o, h, w))  # 调整输出的形状

当执行 1×1 卷积时,该函数等效于我们之前实现的多输入多输出通道的互相关函数 corr2d_multi_in_out。以下示例验证了两者的结果一致性:

# 生成样本数据进行验证
X = torch.normal(0, 1, (3, 3, 3))  # 输入数据 (3 个通道,3x3 大小)
K = torch.normal(0, 1, (2, 3, 1, 1))  # 卷积核 (2 个输出通道,3 个输入通道,1x1 大小)# 使用两种方法计算卷积
Y1 = corr2d_multi_in_out_1x1(X, K)
Y2 = corr2d_multi_in_out(X, K)# 验证两者输出一致
assert float(torch.abs(Y1 - Y2).sum()) < 1e-6

以上代码验证了使用全连接层实现的 1×1 卷积与直接使用互相关运算的结果相同。

小结

  • 多输入多输出通道扩展了卷积层的建模能力。
  • 当在每个像素位置独立应用时,卷积层等效于全连接层。
  • 卷积层通常用于调整网络层的通道数量,从而控制模型的复杂性。

汇聚层

在图像处理任务中,我们希望逐渐降低隐藏表示的空间分辨率,并聚集信息。随着神经网络层数的增加,网络的感受野会扩大,每个神经元对输入的敏感区域增大。对于全局图像分类问题(例如“图像是否包含一只猫?”),网络的最后一层需要能够感知整个输入。因此,通过逐步聚合信息,网络可以生成更加粗糙、全局化的特征表示。

此外,在检测较低层次的特征(例如边缘)时,我们通常希望这些特征具有某种平移不变性。现实中,物体几乎不可能始终出现在同一像素位置上,即使相机稳定地拍摄物体,细微的抖动也可能导致图像中元素左右移动一两个像素。因此,保持平移不变性对提高模型的鲁棒性尤为重要。

汇聚层的作用

汇聚层(Pooling Layer)的作用包括:

  1. 降低卷积层对位置的敏感性;
  2. 降低对空间降采样表示的敏感性。

最大汇聚层和平均汇聚层

汇聚层类似于卷积层,由一个固定形状的窗口组成。该窗口根据步幅大小在输入的各个区域上滑动,并在每个位置计算一个输出值。与卷积层不同,汇聚层没有需要学习的参数,它的计算是确定性的,通常是计算汇聚窗口中元素的最大值或平均值。

  • 最大汇聚层(Max Pooling):输出汇聚窗口中元素的最大值。
  • 平均汇聚层(Average Pooling):输出汇聚窗口中元素的平均值。

汇聚窗口从输入张量的左上角开始,按从左到右、从上到下的顺序在输入张量内滑动。在汇聚窗口到达的每个位置,它计算该窗口中输入子张量的最大值或平均值,这取决于我们选择了最大汇聚层还是平均汇聚层。
在这里插入图片描述
在这里插入图片描述

这种汇聚操作能够有效地降低特征的空间分辨率,同时保留重要的统计信息,有助于网络对特征的平移不变性和降采样表示的适应性。

汇聚层的实现

汇聚层使用固定大小的窗口在输入数据上滑动,并在每个位置计算窗口内元素的最大值或平均值。这些操作分别称为最大汇聚平均汇聚。汇聚层的窗口形状为 ( p h , p w ) (p_h, p_w) (ph,pw),且步幅一般与窗口大小相同。

在对象边缘检测的示例中,最大汇聚层可以帮助保持卷积层对某些模式的识别能力,即使输入在高度或宽度方向上移动了一个像素,卷积层仍能识别出模式。这种特性使得汇聚层能够有效地增强卷积神经网络的平移不变性。

实现汇聚层

下面的 pool2d 函数实现了汇聚层的前向传播,类似于 6.2 节中的 corr2d 函数。与卷积层不同,汇聚层没有卷积核,输出仅为输入中每个区域的最大值或平均值。

import torch# 定义汇聚层的实现函数
def pool2d(X, pool_size, mode='max'):p_h, p_w = pool_sizeY = torch.zeros((X.shape[0] - p_h + 1, X.shape[1] - p_w + 1))for i in range(Y.shape[0]):for j in range(Y.shape[1]):if mode == 'max':Y[i, j] = X[i: i + p_h, j: j + p_w].max()  # 最大汇聚elif mode == 'avg':Y[i, j] = X[i: i + p_h, j: j + p_w].mean()  # 平均汇聚return Y

示例:验证二维最大汇聚和平均汇聚

我们可以使用输入张量 X 来验证二维最大汇聚和平均汇聚的输出:

# 构建示例输入张量
X = torch.tensor([[0.0, 1.0, 2.0], [3.0, 4.0, 5.0], [6.0, 7.0, 8.0]])# 验证二维最大汇聚层
print(pool2d(X, (2, 2)))

输出:

tensor([[4., 5.],[7., 8.]])

对于平均汇聚层:

# 验证二维平均汇聚层
print(pool2d(X, (2, 2), 'avg'))

输出:

tensor([[2., 3.],[5., 6.]])

在此示例中,最大汇聚输出了每个汇聚窗口内的最大值,而平均汇聚输出了每个汇聚窗口内的平均值。这种汇聚操作可以有效地降低卷积层对位置的敏感性,同时帮助进行空间降采样。

填充和步幅在汇聚层中的应用

与卷积层类似,汇聚层也可以通过设置填充和步幅来改变输出的形状。在深度学习框架中,我们可以通过内置的二维最大汇聚层来演示填充和步幅的效果。

首先,构造一个输入张量 X,其形状为 (1, 1, 4, 4),即一个样本数和通道数均为 1 的 4x4 矩阵。

import torch
from torch import nn# 构造输入张量 X
X = torch.arange(16, dtype=torch.float32).reshape((1, 1, 4, 4))
print(X)

输出:

tensor([[[[ 0., 1., 2., 3.],[ 4., 5., 6., 7.],[ 8., 9., 10., 11.],[12., 13., 14., 15.]]]])

默认步幅与汇聚窗口大小相同

默认情况下,深度学习框架中的步幅与汇聚窗口的大小相同。例如,如果我们使用一个形状为 (3, 3) 的汇聚窗口,默认步幅为 (3, 3)

# 使用 (3, 3) 汇聚窗口,步幅默认为 (3, 3)
pool2d = nn.MaxPool2d(3)
print(pool2d(X))

输出:

tensor([[[[10.]]]])

自定义填充和步幅

我们也可以手动设置填充和步幅。例如,使用汇聚窗口 (3, 3),填充为 1,步幅为 2

# 设置 (3, 3) 汇聚窗口,填充为 1,步幅为 2
pool2d = nn.MaxPool2d(3, padding=1, stride=2)
print(pool2d(X))

输出:

tensor([[[[ 5., 7.],[13., 15.]]]])

不同的矩形汇聚窗口与不同的填充和步幅

我们还可以使用矩形汇聚窗口,并分别设置填充和步幅的高度和宽度。例如,使用汇聚窗口大小 (2, 3),步幅为 (2, 3),填充为 (0, 1)

# 使用 (2, 3) 的矩形汇聚窗口,步幅为 (2, 3),填充为 (0, 1)
pool2d = nn.MaxPool2d((2, 3), stride=(2, 3), padding=(0, 1))
print(pool2d(X))

输出:

tensor([[[[ 5., 7.],[13., 15.]]]])

通过设定汇聚窗口、填充和步幅的大小,我们可以灵活地控制汇聚层的输出形状。汇聚层通过降低特征图的空间分辨率,帮助模型逐步聚合特征,并增强平移不变性。

多通道汇聚层

在处理多通道输入数据时,汇聚层会在每个输入通道上独立进行操作,而不像卷积层那样对通道维度进行汇总。这意味着汇聚层的输出通道数与输入通道数一致。

示例:多通道汇聚操作

我们先在通道维度上将张量 XX + 1 连接起来,以构造一个具有 2 个通道的输入:

import torch
from torch import nn# 创建一个 4x4 的输入张量 X
X = torch.arange(16, dtype=torch.float32).reshape((1, 1, 4, 4))# 将 X 和 X+1 在通道维度上拼接,形成一个具有 2 个通道的输入张量
X = torch.cat((X, X + 1), 1)
print(X)

输出:

tensor([[[[ 0., 1., 2., 3.],[ 4., 5., 6., 7.],[ 8., 9., 10., 11.],[12., 13., 14., 15.]],[[ 1., 2., 3., 4.],[ 5., 6., 7., 8.],[ 9., 10., 11., 12.],[13., 14., 15., 16.]]]])

使用 3x3 的最大汇聚窗口,填充为 1,步幅为 2。在每个通道上,汇聚层将独立进行操作:

# 使用 3x3 的最大汇聚层,填充为 1,步幅为 2
pool2d = nn.MaxPool2d(3, padding=1, stride=2)
print(pool2d(X))

输出:

tensor([[[[ 5., 7.],[13., 15.]],[[ 6., 8.],[14., 16.]]]])

可以看到,输出仍然包含 2 个通道,每个通道的汇聚结果对应于输入张量的每个通道的汇聚操作。

小结

  • 最大汇聚层输出该窗口内的最大值,而平均汇聚层输出窗口内的平均值。
  • 汇聚层的主要优势之一是减轻卷积层对位置的敏感性。
  • 可以在汇聚层中指定填充和步幅,以控制输出形状。
  • 使用最大汇聚层及大于 1 的步幅,可减少空间维度(如高度和宽度)。
  • 汇聚层的输出通道数与输入通道数相同。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/467638.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

如何在c++侧编译运行一个aclnn(AOL)算子?

1 AOL算子库 CANN&#xff08;Compute Architecture for Neural Networks&#xff09;提供了算子加速库&#xff08;Ascend Operator Library&#xff0c;简称AOL&#xff09;。该库提供了一系列丰富且深度优化过的高性能算子API&#xff0c;更亲和昇腾AI处理器&#xff0c;调…

IDEA git提交时如何忽略某个文件或文件夹

步骤如下 英文界面操作顺序 打开file——>settings——>Editor——>File Types 中文插件操作顺序 打开 文件——>设置——>编辑器——> 文件类型 安装下面的操作顺序添加想要屏蔽文件类型后缀即可&#xff1a;

《常用深度学习神经网络及其原理与应用场景》

一、总体介绍 一、引言 随着科技的不断发展&#xff0c;深度学习已经成为人工智能领域中最具影响力的技术之一。深度学习神经网络通过模拟人类大脑的神经元结构和工作方式&#xff0c;能够自动学习数据中的特征和模式&#xff0c;从而实现各种复杂的任务&#xff0c;如图像识…

科技革命前沿:救援机器人!

救援机器人主要制作材料 传统刚性材料&#xff1a;传统救援机器人多采用金属等刚性材料制作&#xff0c;以确保其结构强度和稳定性。这些材料在承受较大负载和复杂环境时表现出色&#xff0c;但可能缺乏一定的灵活性。 软体材料&#xff1a;近年来&#xff0c;软体机器人技术…

Ubuntu中以root身份运行Qt创建的项目

Ubuntu中以root身份运行Qt创建的项目 Chapter1 Ubuntu中以root身份运行Qt创建的项目解决方法&#xff1a; Chapter1 Ubuntu中以root身份运行Qt创建的项目 原文链接&#xff1a;https://blog.csdn.net/lhbaba/article/details/124733323 使用Qt开发项目时遇到了一个问题&#…

leetcode25:k个一组链表反转

给你链表的头节点 head &#xff0c;每 k 个节点一组进行翻转&#xff0c;请你返回修改后的链表。 k 是一个正整数&#xff0c;它的值小于或等于链表的长度。如果节点总数不是 k 的整数倍&#xff0c;那么请将最后剩余的节点保持原有顺序。 你不能只是单纯的改变节点内部的值…

ctfshow-web入门-反序列化(web265-web270)

目录 1、web265 2、web266 3、web267 4、web268 5、web269 6、web270 1、web265 很简单的一个判断&#xff0c;满足 $this->token$this->password; 即可 由于 $ctfshow->tokenmd5(mt_rand()) 会将 token 随机为一个 md5 值&#xff0c;我们使用 & 绕一下&am…

qt QLocale详解

1、概述 QLocale是Qt框架中的一个类&#xff0c;用于处理与本地化相关的操作。它能够方便地实现日期、时间、数字和货币的格式化和解析&#xff0c;支持不同的语言、区域设置和字符集。QLocale提供了一种跨平台的方式来获取当前系统的语言设置&#xff0c;并返回该语言的本地化…

年龄大了,听力一定会下降吗?

随着年龄的增长&#xff0c;听力下降&#xff08;也称为老年性听力损失或感音神经性聋&#xff09;确实是一个常见的现象&#xff0c;但并不是每个人都会经历明显的听力下降。以下是一些影响因素和相关信息&#xff1a; 1. 自然老化过程 •随着年龄的增长&#xff0c;内耳的毛…

Linux SSH私钥认证结合cpolar内网穿透安全高效远程登录指南

文章目录 前言1. Linux 生成SSH秘钥对2. 修改SSH服务配置文件3. 客户端秘钥文件设置4. 本地SSH私钥连接测试5. Linux安装Cpolar工具6. 配置SSHTCP公网地址7. 远程SSH私钥连接测试8. 固定SSH公网地址9. 固定SSH地址测试 前言 开发人员在工作中经常需要远程访问服务器和数据中心…

国产化浪潮下,高科技企业如何选择合适的国产ftp软件方案?

高科技企业在数字化转型和创新发展中&#xff0c;数据资产扮演着越来越重要的角色。在研发过程中产生的实验数据、设计文档、测试结果等&#xff0c;专利、商标、版权之类的创新成果等&#xff0c;随着信息量急剧增加和安全威胁的复杂化&#xff0c;传统的FTP软件已经不能满足这…

高校宿舍信息管理系统小程序

作者主页&#xff1a;编程千纸鹤 作者简介&#xff1a;Java领域优质创作者、CSDN博客专家 、CSDN内容合伙人、掘金特邀作者、阿里云博客专家、51CTO特邀作者、多年架构师设计经验、多年校企合作经验&#xff0c;被多个学校常年聘为校外企业导师&#xff0c;指导学生毕业设计并参…

DNS域名详细解析详解

文章目录 DNS域名详细解析详解一、引言二、DNS域名解析过程1、DNS解析概述1.1、DNS解析的基本步骤 2、代码示例 三、DNS查询类型1、递归查询2、迭代查询 四、总结 DNS域名详细解析详解 一、引言 在互联网的世界里&#xff0c;域名和IP地址是两个不可或缺的概念。IP地址是计算…

Selenium自动化测试 —— 模拟鼠标键盘的操作事件

软件测试资料领取&#xff1a;[内部资源] 想拿年薪40W的软件测试人员&#xff0c;这份资料必须领取~ 软件测试面试刷题工具&#xff1a;软件测试面试刷题【800道面试题答案免费刷】 鼠标操作事件 在实际的web产品测试中&#xff0c;对于鼠标的操作&#xff0c;不单单只有clic…

全网视频下载神器一键下载全网视频!

前言 想从网上下载视频和音乐到手机吗&#xff1f;那真的很简单&#xff01;这个应用支持各种格式&#xff0c;而且完全不用花钱。当你在下载器内打开一个网站视频&#xff0c;下载器会自动“看到”它&#xff0c;你只需要点一下&#xff0c;下载就开始了。下载过程中&#xf…

系统架构师2023版:习题

架构设计基础 计算机基础 目前处理器市场中存在 CPU 和 DSP 两种类型的处理器&#xff0c;分别用于不同的场景&#xff0c;这两种处理器具有不同的体系结构&#xff0c;DSP采用()。 A.冯诺依曼结构 B.哈佛结构 C.FPGA 结构 D.与 GPU 相同的结构 解析:…

C++:lambda表达式

lambda表达式是一个可调用对象。 lambda表达式定义&#xff1a; 看作一个匿名函数。定义lambda&#xff0c;[ ]开始&#xff0c;跟&#xff08;&#xff09;&#xff0c;括号内传递参数 &#xff0c;{ }内接函数体。用一个auto 类型的变量接收。把该变量名当作该匿名函数的函数…

javascript实现sha512和sha384算法(支持微信小程序),可分多次计算

概述&#xff1a; 本人前端需要实现sha512和sha384计算的功能&#xff0c;最好是能做到分多次计算。 本文所写的代码在现有sha512和sha384的C代码&#xff0c;反复测试对比计算过程参数&#xff0c;成功改造成sha512和sha384的javascript代码&#xff0c;并成功验证好分多次计算…

C++类和对象 (下)

文章目录 前言一. 再探构造函数初始化列表特性总结练习 二. 类型转换2.1 隐式类型转换2.2 临时对象具有常性2.3 explicit关键字2.4 多参数类型转化 三. static成员概念特性练习 四. 友元概念特性 五. 内部类概念特性 六. 匿名对象概念特性 七. 对象拷贝时的编译器优化END 前言 …

【数据集】【YOLO】【目标检测】航拍船只识别数据集 3550 张,YOLO航拍水面船只识别算法实战训练教程!

一、数据集介绍 【数据集】航拍船只识别数据集 3550 张&#xff0c;目标检测&#xff0c;包含YOLO/VOC格式标注。 数据集中包含1种分类&#xff1a;{0: ship}&#xff0c;代表水面船只。 数据集来自国内外图片网站、无人机航拍视频截图以及卫星云图&#xff1b; 可用于无人…