【深度学习】pytorch——快速入门

笔记为自我总结整理的学习笔记,若有错误欢迎指出哟~

pytorch快速入门

  • 简介
  • 张量(Tensor)操作
    • 创建张量
    • 向量拷贝
    • 张量维度
    • 张量加法
    • 函数名后面带下划线 `_` 的函数
    • 索引和切片
    • Tensor和Numpy的数组之间的转换
    • 张量(tensor)与标量(scalar)
    • scalar.item与tensor[idx]
  • 自动微分Autograd(Automatic differentiation)
    • .grad 属性
    • .grad_fn属性
  • 模型构建
  • 损失函数
  • 优化器
  • 数据加载和预处理

简介

PyTorch是一个开源的机器学习框架,它提供了丰富的工具和库,用于构建和训练深度学习模型。下面是一些关于PyTorch的基本信息:

张量(Tensor)操作:PyTorch中的核心对象是张量,它是一个多维数组。PyTorch提供了广泛的张量操作函数,可以执行各种数学运算和线性代数操作。

自动微分:PyTorch使用动态图计算的方式,允许用户轻松定义和计算梯度。通过在张量上设置 requires_grad=True,可以跟踪和自动计算梯度。这使得实现反向传播算法变得简单,对于构建和训练深度学习模型非常重要。

模型构建:PyTorch提供了灵活的模型构建方式。可以通过继承 torch.nn.Module 类来定义自己的模型,并在 forward() 方法中指定前向传播的操作。这样的模型可以由多个层组成,每个层可以是全连接层、卷积层、循环神经网络等。

损失函数:PyTorch提供了多种常见的损失函数,用于评估模型输出与目标之间的差异。例如,均方误差损失函数用于回归问题,交叉熵损失函数用于分类问题。

优化器:PyTorch提供了多种优化算法的实现,如随机梯度下降(SGD)、Adam、RMSprop等。这些优化器可以用于更新模型参数,以最小化定义的损失函数。

数据加载和预处理:PyTorch提供了用于加载和处理数据的工具。可以使用 torchvision 库加载常见的图像数据集,并应用各种数据增强技术来扩充训练数据集。

分布式训练:PyTorch支持分布式训练,可以在多个GPU或多台机器上并行运行。这有助于加速训练过程,并处理更大规模的数据集和模型。

总的来说,PyTorch提供了一个灵活且易于使用的深度学习框架,使得构建、训练和部署深度学习模型变得简单和高效。它广泛应用于学术界和工业界,并得到了广大开发者的喜爱和支持。

import torchprint("pytorch版本:", torch.__version__)

输出结果为:

pytorch版本: 2.1.0+cpu

张量(Tensor)操作

数据类型:在PyTorch中,Tensor可以是多种数据类型,如float、double、int、long等。这些类型对应于不同的精度和范围。

张量操作:PyTorch提供了大量的张量操作函数,可以进行各种数学运算和线性代数操作。这些函数包括加、减、乘、除、矩阵乘法、向量点积、转置、逆矩阵等等。

自动求导:Tensor可以通过设置 requires_grad=True 来启用自动求导。这允许用户轻松定义和计算梯度,以用于反向传播算法。

Tensor形状:Tensor的形状指的是其各个维度的大小。可以通过 shape 属性来获取Tensor的形状。形状信息对于构建和训练深度学习模型非常重要。

广播机制:在进行张量运算时,如果两个张量的形状不完全相同,PyTorch会自动执行广播机制。这意味着,较小的张量将被自动扩展,以匹配较大张量的形状。

索引和切片:可以使用整数索引和切片操作来访问Tensor中的元素。此外,还可以使用布尔索引和高级索引等功能,进行更复杂的Tensor操作。

GPU加速:在支持CUDA的GPU上,PyTorch可以利用GPU加速Tensor操作,从而实现更快的计算速度。

创建张量

使用 torch.zeros() 或 torch.ones() 函数创建全零或全一张量:

zeros_tensor = torch.zeros(5, 3)
ones_tensor = torch.ones(5, 3)

使用 torch.randn() 函数创建符合标准正态分布的随机数张量:

random_tensor = torch.randn(5, 3)

使用 torch.Tensor() 创建张量:

import torch# 从 Python 标量创建张量
scalar_tensor = torch.tensor(3.14)
print(scalar_tensor)   # 输出 tensor(3.1400)# 从 Python 列表创建张量
list_tensor = torch.tensor([1, 2, 3])
print(list_tensor)   # 输出 tensor([1, 2, 3])# 从 NumPy 数组创建张量
numpy_array = np.array([4, 5, 6])
numpy_tensor = torch.tensor(numpy_array)
print(numpy_tensor)   # 输出 tensor([4, 5, 6], dtype=torch.int32)# 创建一个指定大小的空张量
empty_tensor = torch.tensor([])
print(empty_tensor)   # 输出 tensor([])# 从其他张量创建张量
x = torch.tensor([1, 2, 3])
y = torch.tensor(x)
print(y)   # 输出 tensor([1, 2, 3])
# x 和 y是两个完全独立的张量对象,它们在内存中占据不同的位置。
x[0] = 100
print(x)   # tensor([100,   2,   3])
print(y)   # tensor([1, 2, 3])

注意,以上三种方法都可以通过添加 .to(device) 方法将张量转移到GPU设备上(如果你的系统支持GPU加速)。

向量拷贝

torch.tensor()、tensor.clone()、tensor.detach()进行数据拷贝,新tensor和原来的数据不再共享内存。

.clone().detach() 都是用于在 PyTorch 中创建新的张量,但它们在功能和用法上有一些区别:

1..clone() 方法:

功能:.clone() 方法创建一个新的张量,该张量与原始张量具有相同的值、形状和梯度信息。

用法:通常用于需要在计算图中保留梯度信息的情况,比如进行反向传播和优化过程。

示例代码:

import torchx = torch.tensor([1, 2, 3], requires_grad=True)
y = x.clone()print(x)  # 输出: tensor([1, 2, 3], requires_grad=True)
print(y)  # 输出: tensor([1, 2, 3], grad_fn=<CloneBackward>)

在这个例子中,y 是通过 .clone() 方法从原始张量 x 创建的,它保留了 x 的梯度信息。

  1. .detach() 方法:

功能:.detach() 方法创建一个新的张量,该张量与原始张量具有相同的值和形状,但不保留任何梯度信息。

对于整数类型的张量,无法使用 requires_grad 参数。如果您需要在整数类型的张量上进行自动微分,请先将其转换为浮点数类型的张量。

用法:通常用于需要从计算图中分离出张量的梯度信息,以便在不需要梯度的情况下进行计算。

示例代码:

import torchx = torch.tensor([1.0, 2.0, 3.0], requires_grad=True)
y = x.detach()print(x)  # 输出: tensor([1., 2., 3.], requires_grad=True)
print(y)  # 输出: tensor([1., 2., 3.])

在这个例子中,y 是通过 .detach() 方法从原始张量 x 创建的,它不保留 x 的梯度信息。

总结区别:

  • .clone() 创建一个新的张量,并保留原始张量的梯度信息。
  • .detach() 创建一个新的张量,并且不保留原始张量的梯度信息。
    所以如果你想共享内存的话,建议使用torch.from_numpy()或者tensor.detach()来新建一个tensor, 二者共享内存。

张量维度

PyTorch 中,size() 方法返回一个元组,表示张量各个维度的大小。torch.size 是tuple对象的子类,因此它支持tuple的所有操作。
x.size()[0] 和 x.size(0) 都用于获取张量第一个维度的大小,即行数。
x.size()[1] 和 x.size(1) 都用于获取张量第二个维度的大小,即列数。

x = t.rand(5, 3)  
print(x.size()) # 查看x的形状
print(x.size()[0]) # 查看行的个数
print(x.size(0)) # 查看行的个数
print(x.size()[1]) # 查看列的个数
print(x.size(1)) # 查看列的个数

输出结果为:

torch.Size([5, 3])
5
5
3
3

张量加法

在 PyTorch 中,可以使用 torch.add() 函数或者张量的 add() 方法进行张量加法。两者的功能是类似的,只是使用方式上有所区别。

  1. 使用 torch.add() 函数

torch.add() 函数的语法如下:

torch.add(input, other, alpha=1, out=None)

其中,input 表示要进行加法运算的张量,other 表示要加到 input 上的张量,alpha 表示缩放系数,out 表示输出张量(默认为 None)。

示例代码如下:

# 创建两个张量
tensor1 = torch.tensor([[1, 2], [3, 4]])
tensor2 = torch.tensor([[5, 6], [7, 8]])# 使用 torch.add() 进行张量加法
result = torch.add(tensor1, tensor2)
print(result)

输出结果为:

tensor([[ 6,  8],[10, 12]])

在这个例子中,创建了两个 2x2 的张量 tensor1tensor2,然后使用 torch.add() 函数对它们进行了加法运算,结果存储在 result 张量中。

  1. 使用张量的 add() 方法

张量的 add() 方法的语法如下:

add(other, alpha=1, out=None) -> Tensor

其中,other 表示要加到当前张量上的张量,alpha 表示缩放系数,out 表示输出张量(默认为 None)。

示例代码如下:

import torch# 创建两个张量
tensor1 = torch.tensor([[1, 2], [3, 4]])
tensor2 = torch.tensor([[5, 6], [7, 8]])# 使用张量的 add() 方法进行张量加法
result = tensor1.add(tensor2)
print(result)

运行结果与使用 torch.add() 函数的结果相同:

tensor([[ 6,  8],[10, 12]])

在这个例子中,首先创建了两个 2x2 的张量 tensor1tensor2,然后使用 tensor1.add(tensor2) 进行了加法运算,结果存储在 result 张量中。

需要注意的是,add 方法并不会修改当前张量,而是返回一个新的张量。如果需要就地修改当前张量,可以使用 add_ 方法。例如:

import torch# 创建一个张量
tensor = torch.tensor([[1, 2], [3, 4]])# 就地修改
tensor.add_(2)print(tensor)

输出结果为:

tensor([[3, 4],[5, 6]])

函数名后面带下划线 _ 的函数

在 PyTorch 中,函数名后面带下划线 _ 的函数通常表示就地(in-place)操作,这些函数会直接修改调用它们的张量本身,而不会创建新的张量。

就地操作可以节省内存空间,尤其在处理大规模数据时非常有用。然而,需要注意的是,这些就地操作会改变原始张量,因此在使用时需要小心,确保不会意外修改到原始数据。

以下是一些常见的就地操作的示例:

import torch# 创建一个张量
tensor = torch.tensor([1, 2, 3])# 就地加法操作
tensor.add_(1)
print(tensor)  # 输出 tensor([2, 3, 4])# 就地乘法操作
tensor.mul_(2)
print(tensor)  # 输出 tensor([4, 6, 8])# 就地取负操作
tensor.neg_()
print(tensor)  # 输出 tensor([-4, -6, -8])

需要注意的是,就地操作的命名规范是以下划线结尾的函数名,例如 add_()mul_()neg_()。这些函数在执行完操作后,会直接修改原始张量,而不返回新的张量。

在使用就地操作时,请注意以下几点:

  • 原始张量的值会被修改,可能会对后续计算产生影响。
  • 就地操作不会创建新的张量,因此不能使用赋值操作(例如 tensor = tensor.add_(1)),否则会导致变量引用发生变化。
  • 就地操作只能用于可就地修改的张量类型,例如浮点型张量和整数型张量。对于不可变的张量类型(如 torch.Tensor)或自动求导的张量(如 torch.autograd.Variable),就地操作是不允许的。

索引和切片

在 PyTorch 中,可以使用索引和切片操作来选择张量中的特定元素、子集或者某个维度上的切片。这些操作使得你可以根据需要获取张量的部分数据,进行进一步的处理或分析。

下面是一些常见的张量选取操作示例:

  1. 使用索引选择单个元素
import torch# 创建一个张量
tensor = torch.tensor([[1, 2, 3], [4, 5, 6]])# 使用索引选取单个元素
element = tensor[0, 1]
print(element)  # 输出 tensor(2)

在这个例子中,我们创建了一个 2x3 的张量 tensor,然后使用索引 0, 1 来选择第一行、第二列的元素,即 2。

  1. 切片操作选择子集
import torch# 创建一个张量
tensor = torch.tensor([[1, 2, 3], [4, 5, 6], [7, 8, 9]])# 使用切片操作选择子集
# 选取张量 tensor 中第 2 行到第 3 行(不包括第 3 行),以及第 1 列到第 2 列(不包括第 2 列)的所有元素。
subset = tensor[1:3, 0:2]
print(subset)

输出结果为:

tensor([[4, 5],[7, 8]])

在这个例子中,我们创建了一个 3x3 的张量 tensor,然后使用切片操作选择了第二行和第三行的前两列,即子集 [[4, 5], [7, 8]]

  1. 使用布尔索引选择满足条件的元素
import torch# 创建一个张量
tensor = torch.tensor([1, 2, 3, 4, 5, 6])# 使用布尔索引选择满足条件的元素
selected_elements = tensor[tensor > 3]
print(selected_elements)

输出结果为:

tensor([4, 5, 6])

在这个例子中,我们创建了一个包含整数的张量 tensor,然后使用布尔索引 tensor > 3 来选择大于 3 的元素,即满足条件的元素 [4, 5, 6]

除了上述示例外,还可以使用其他高级的选取操作,如使用 torch.where() 函数、使用 torch.masked_select() 函数等。这些操作可以根据特定的需求进行更复杂的数据选择和过滤。

Tensor和Numpy的数组之间的转换

.numpy()方法将张量(Tensor)转换为NumPy数组,进行一些NumPy支持的操作。
torch.from_numpy()方法将NumPy数组转换回PyTorch张量。

以下是一个示例:

import torch
import numpy as np# 创建一个PyTorch张量
tensor = torch.tensor([1, 2, 3, 4, 5])# 将PyTorch张量转换为NumPy数组
array = tensor.numpy()
print(array)  # 输出 [1, 2, 3, 4, 5]# 使用NumPy数组进行操作
array = np.square(array)
print(array)  # 输出 [1, 4, 9, 16, 25]# 将NumPy数组转换回PyTorch张量
tensor = torch.from_numpy(array)
print(tensor)  # 输出 tensor([1, 4, 9, 16, 25])
  • 创建了一个PyTorch张量 tensor
  • 使用.numpy()方法将其转换为NumPy数组 array
  • 对NumPy数组进行了一些操作(计算了每个元素的平方),并将结果存储回了array
  • 使用torch.from_numpy()方法将NumPy数组 array 转换回PyTorch张量 tensor

需要注意的是,通过将张量转换为NumPy数组进行处理可能会导致一些性能上的损失,因为NumPy数组和PyTorch张量使用不同的底层实现。因此,在进行转换前后需要权衡性能和功能需求。

Tensor和numpy对象共享内存

# 改变NumPy数组的值
array[0] = 100
print(array)  # 输出 [100   4   9  16  25]# 查看PyTorch张量的值
print(tensor)  # 输出 tensor([100,   4,   9,  16,  25])

如果需要避免共享内存带来的问题,可以使用.clone()方法来创建副本,以确保两个对象之间没有共享的内存。

张量(tensor)与标量(scalar)

在PyTorch中,标量是零维张量,也就是不包含任何轴的张量。可以直接使用Python的标量数据类型,如整数或浮点数
以下是几种创建标量的示例:

import torch# 创建一个零维张量
scalar_tensor = torch.tensor(5)
print(scalar_tensor)  # 输出 tensor(5)
print(scalar_tensor.shape)  # 输出 torch.Size([])# 创建一个一维张量
vector_tensor = torch.tensor([5])
print(vector_tensor)  # 输出 tensor([5])
print(vector_tensor.shape)  # 输出 torch.Size([1])# 直接使用Python的标量数据类型
scalar_value = 5
print(scalar_value)  # 输出 5
print(type(scalar_value))  # 输出 <class 'int'>

scalar.item与tensor[idx]

scalar.item可以获取某一个元素的值
tensor[idx]得到的还是一个tensor: 一个0-dim的tensor,一般称为scalar

import torchscalar_tensor = torch.tensor([5])
print(scalar_tensor)  # 输出 tensor([5])
print(scalar_tensor.shape) #输出 torch.Size([1])tensor_value = scalar_tensor[0]
print(scalar_value)  # 输出 tensor(5)scalar_value = scalar_tensor.item()
print(scalar_value)  # 输出 5

自动微分Autograd(Automatic differentiation)

Autograd(Automatic differentiation)是PyTorch中的一个自动微分引擎,用于计算和追踪张量上的导数。Autograd使得在神经网络训练中进行反向传播及计算梯度变得相对简单。

在PyTorch中,每个张量都有一个 requires_grad 属性,用于指定是否要对该张量进行梯度计算。当设置 requires_grad=True 时,PyTorch会跟踪针对该张量的所有操作,并构建一个计算图(computational graph)。这个计算图可以用于自动计算后向传播(backpropagation)和计算梯度。

当完成前向传播(forward pass)后,可以通过调用 backward() 方法自动计算梯度。此时,对于具有 requires_grad=True 的张量,它们将具有一个 .grad 属性,其中包含了相对于某个标量损失函数的梯度。该梯度可以用于更新模型参数,在训练过程中优化模型。

使用 PyTorch 进行自动求导简单示例:

import torch# 创建张量并设置 requires_grad=True
x = torch.tensor(3.0, requires_grad=True)
y = torch.tensor(4.0, requires_grad=True)# 执行一些操作
z = x ** 2 + y ** 3# 计算 z 相对于 x 和 y 的梯度
z.backward()# 输出梯度值
print(x.grad)  # 输出: tensor(6.)
print(y.grad)  # 输出: tensor(48.)

创建了两个张量 xy,并将 requires_grad 属性设置为 True,以便自动求导。

定义了一个计算 z = x ** 2 + y ** 3 的操作,并调用 backward() 方法计算梯度。

通过 grad 属性获取 xy 相对于 z 的梯度值。

需要注意的是,自动求导仅适用于标量(scalar)张量。如果要计算向量或矩阵相对于张量的导数,可以使用 Jacobian 矩阵的方法。此外,为了避免梯度计算造成的内存泄漏,可以使用 torch.no_grad() 上下文管理器来禁用梯度计算。

.grad 属性

.grad 属性是在 PyTorch 中用于访问张量的梯度值的属性
在这里插入图片描述

import torch# 创建张量并设置 requires_grad=True
a = torch.tensor(5.0, requires_grad=True)
b = torch.tensor(3.0, requires_grad=True)
c = torch.tensor(2.0, requires_grad=True)
u = b*c
v = a+u
j = 3*v# 执行反向传播计算梯度
j.backward()# 输出梯度值
print(a.grad)  # 输出: tensor(3.)
print(b.grad)  # 输出: tensor(6.)
print(c.grad)  # 输出: tensor(9.)
  • 创建了张量并将 requires_grad 属性设置为 True,以便自动求导。
  • 定义了一些计算操作,并通过调用 .backward() 方法执行反向传播计算梯度。
  • 通过 .grad 属性获取张量相对于 j 的梯度值。

.grad_fn属性

在 PyTorch 中,每个张量都有一个 grad_fn 属性,用于表示创建该张量的操作(或函数),也就是反向传播时需要调用的函数。这个属性可以用来构建计算图和执行自动微分。

下面是一个简单的示例,展示了如何使用 grad_fn 属性:

import torch# 创建一个张量并执行一些操作
x = torch.tensor(2.0, requires_grad=True)
y = x ** 2 + 3
z = y ** 2# 输出每个张量的 grad_fn 属性
print(x.grad_fn)  # 输出: None
print(y.grad_fn)  # 输出: <AddBackward0 object at 0x7f3e8bd82b10>
print(z.grad_fn)  # 输出: <PowBackward0 object at 0x7f3e8bd82b10>

在这个例子中,我们创建了一个张量 x 并将 requires_grad 属性设置为 True,以便自动求导。然后,我们定义了一些计算操作,并输出了每个张量的 grad_fn 属性。

需要注意的是,只有在张量是通过某个操作创建时,它才有一个 grad_fn 属性。对于手动创建的张量,如普通的 Python 数组或通过 torch.tensor() 创建的张量,它们的 grad_fn 属性是 None

模型构建

PyTorch提供了灵活的模型构建方式。可以通过继承 torch.nn.Module 类来定义自己的模型,并在 forward() 方法中指定前向传播的操作。这样的模型可以由多个层组成,每个层可以是全连接层、卷积层、循环神经网络等。

1.导入 PyTorch 库和相关的包

import torch
import torch.nn as nn
import torch.optim as optim

2.定义模型类(继承自 nn.Module

class MyModel(nn.Module):def __init__(self, input_size, hidden_size, output_size):super(MyModel, self).__init__()self.fc1 = nn.Linear(input_size, hidden_size)self.relu = nn.ReLU()self.fc2 = nn.Linear(hidden_size, output_size)def forward(self, x):out = self.fc1(x)out = self.relu(out)out = self.fc2(out)return out

在这个示例中,我们定义了一个名为 MyModel 的类,继承自 nn.Module。该模型具有两个全连接层和一个 ReLU 激活函数。__init__ 方法用于初始化模型的权重和偏置,而 forward 方法则定义了模型的正向传播过程。

这段代码定义了一个简单的神经网络模型 MyModel,它有三个层:一个输入层、一个隐藏层和一个输出层。

__init__ 方法中,模型的结构定义如下:

  • self.fc1 = nn.Linear(input_size, hidden_size):这一行创建了一个线性层(全连接层),将输入特征的维度为 input_size 转换为隐藏层特征的维度为 hidden_size
  • self.relu = nn.ReLU():这一行创建了一个 ReLU 激活函数对象,用于在隐藏层后面引入非线性变换。
  • self.fc2 = nn.Linear(hidden_size, output_size):这一行创建了第二个线性层,将隐藏层特征的维度为 hidden_size 转换为输出特征的维度为 output_size

forward 方法中,模型的前向传播过程定义如下:

  • out = self.fc1(x):首先,输入 x 通过第一个线性层 self.fc1 进行线性变换。
  • out = self.relu(out):然后,通过 ReLU 激活函数 self.relu 进行非线性变换。
  • out = self.fc2(out):最后,将变换后的特征再次通过第二个线性层 self.fc2 进行线性变换得到最终的输出。

整个模型的结构可以总结为:

输入层(input_size) -> 隐藏层(hidden_size) -> ReLU 激活函数 -> 输出层(output_size)

这个模型可以用于各种任务,如分类、回归等。在训练过程中,我们可以通过定义损失函数和优化算法来最小化模型的预测与真实值之间的差距,以达到训练模型的目的。

损失函数

PyTorch 中的损失函数模块 torch.nn 包含了许多常用的损失函数,如均方误差损失(MSELoss)、交叉熵损失(CrossEntropyLoss)等等。这些损失函数可以帮助我们度量模型预测值与真实值之间的差距,是深度学习中一个重要的组成部分。

以下是一些常见的损失函数及其用法示例:

  • 均方误差损失(MSELoss):

    criterion = nn.MSELoss()
    loss = criterion(output, target)
    

    在这个示例中,output 是模型的输出值,target 是真实值,criterion 是一个 MSELoss 损失函数对象,loss 就是模型预测值与真实值之间的 MSE 损失值。

  • 交叉熵损失(CrossEntropyLoss):

    criterion = nn.CrossEntropyLoss()
    loss = criterion(output, target)
    

    在这个示例中,output 是模型的输出值,target 是真实值标签,criterion 是一个 CrossEntropyLoss 损失函数对象,loss 就是模型预测值与真实值之间的交叉熵损失值。

  • KL 散度损失(KLDivLoss):

    criterion = nn.KLDivLoss()
    loss = criterion(output.log(), target)
    

    在这个示例中,output 是模型的输出值,target 是真实值,criterion 是一个 KLDivLoss 损失函数对象,loss 就是 KL 散度损失值。

损失函数的使用通常包括以下几个步骤:

  1. 定义损失函数:选择一个合适的损失函数,并将其实例化。
  2. 在每个训练迭代中,通过调用损失函数计算模型输出值与真实值之间的差距,并得到相应的损失值。
  3. 调用反向传播算法 backward() 计算损失关于模型参数的梯度。

下面是一个完整的示例代码,演示了如何使用 MSELoss 进行模型训练:

import torch
import torch.nn as nn# 定义模型
class MyModel(nn.Module):def __init__(self):super(MyModel, self).__init__()self.fc = nn.Linear(10, 1)def forward(self, x):out = self.fc(x)return out# 实例化模型和损失函数
model = MyModel()
criterion = nn.MSELoss()# 模拟数据
inputs = torch.randn(100, 10)
labels = torch.randn(100, 1)# 训练模型
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)
for epoch in range(10):optimizer.zero_grad()outputs = model(inputs)loss = criterion(outputs, labels)loss.backward()optimizer.step()print('Epoch:', epoch+1, 'Loss:', loss.item())

输出结果为:

Epoch: 1 Loss: 1.7458306550979614
Epoch: 2 Loss: 1.722163438796997
Epoch: 3 Loss: 1.6993693113327026
Epoch: 4 Loss: 1.6774134635925293
Epoch: 5 Loss: 1.6562625169754028
Epoch: 6 Loss: 1.6358848810195923
Epoch: 7 Loss: 1.6162495613098145
Epoch: 8 Loss: 1.5973275899887085
Epoch: 9 Loss: 1.579091191291809
Epoch: 10 Loss: 1.561513066291809

这段代码是一个使用 PyTorch 进行模型训练的示例。

  • 定义了一个简单的线性模型 MyModel,它包含一个线性层 self.fc = nn.Linear(10, 1)。这个模型将输入大小为 10 的张量映射到一个大小为 1 的输出张量。
  • 实例化了这个模型和一个均方误差损失函数 MSELoss,即 criterion = nn.MSELoss()
  • 生成了一个大小为 (100, 10) 的输入张量 inputs 和一个大小为 (100, 1) 的标签张量 labels,用于模拟训练数据。
  • 使用随机梯度下降优化器 SGD,即 optimizer = torch.optim.SGD(model.parameters(), lr=0.01),设置学习率为 0.01。
  • 进行了 10 个训练迭代的循环。在每个迭代中:
    • 调用 optimizer.zero_grad() 来清零之前的梯度。
    • 通过将输入张量 inputs 传入模型 model,得到输出张量 outputs
    • 使用损失函数 criterion 计算预测值 outputs 与真实值 labels 之间的均方误差损失,并将其保存在变量 loss 中。
    • 调用 loss.backward() 来执行反向传播计算梯度。
    • 调用 optimizer.step() 来更新模型参数,使其朝着更优的方向进行调整。
  • 在每个训练迭代中,打印出当前迭代的 epoch 数和损失值 loss.item()

优化器

PyTorch 提供了多种优化器,用于在训练深度学习模型时更新模型的参数。以下是几个常见的 PyTorch 优化器:

1.SGD(随机梯度下降法)

optimizer = optim.SGD(model.parameters(), lr=learning_rate)

这是最基本的优化器之一,使用随机梯度下降法来更新模型的参数。model.parameters() 返回模型中的可学习参数,lr 是学习率。

2.Adam(自适应矩估计)

optimizer = optim.Adam(model.parameters(), lr=learning_rate)

Adam 是一种自适应学习率优化算法,结合了动量法和 RMSprop。它可以根据每个参数的梯度自适应地调整学习率。

3.Adagrad

optimizer = optim.Adagrad(model.parameters(), lr=learning_rate)

Adagrad 是一种自适应学习率优化算法,该算法会为每个参数维护一个学习率,随着训练的进行,会针对每个参数降低学习率。

4.RMSprop(均方根传播)

optimizer = optim.RMSprop(model.parameters(), lr=learning_rate)

RMSprop 是一种自适应学习率优化算法,它使用梯度的均方根来调整学习率。

5.Adadelta

optimizer = optim.Adadelta(model.parameters(), lr=learning_rate)

Adadelta 是一种自适应学习率优化算法,它根据过去的梯度和参数更新的幅度来调整学习率。

这些优化器都可以通过调用 optimizer.step() 来更新模型的参数。在每个训练迭代中,通常会先调用 optimizer.zero_grad() 来清零之前的梯度,然后进行正向传播、计算损失、反向传播、计算梯度和参数更新的过程。

选择合适的优化器取决于具体的任务和数据集。一般来说,Adam 优化器在很多情况下表现良好,但在某些问题上可能需要尝试不同的优化器来获得更好的性能。此外,还可以调整学习率、设置动量等超参数来进一步改进优化器的性能。

数据加载和预处理

在 PyTorch 中,数据加载和预处理通常通过自定义数据集类和数据转换函数来完成。下面是一般的数据加载和预处理的步骤:

  1. 创建自定义数据集类: 首先,你需要创建一个自定义的数据集类,继承自 torch.utils.data.Dataset。在该类中,你需要实现 __len__ 方法返回数据集的大小,以及 __getitem__ 方法根据给定的索引返回单个样本。
  2. 数据转换: 数据转换是对原始数据进行预处理的过程。你可以使用 torchvision.transforms 模块提供的转换函数,如 ComposeToTensorNormalize 等。这些函数可以将原始数据转换为张量,并进行标准化、裁剪、缩放等操作。
  3. 创建数据集实例: 使用上述自定义数据集类和转换函数创建数据集实例。传入数据集的路径、标签等信息,根据需要应用相应的数据转换。
  4. 创建数据加载器: 数据加载器负责将数据集分成小批次进行训练。你可以使用 torch.utils.data.DataLoader 类创建数据加载器,传入数据集实例和一些参数,如批次大小、是否随机打乱数据等。

下面是一个示例代码,演示了如何加载和预处理数据:

import torch
from torch.utils.data import Dataset, DataLoader
from torchvision import transforms# 自定义数据集类
class MyDataset(Dataset):def __init__(self, data, labels, transform=None):self.data = dataself.labels = labelsself.transform = transformdef __len__(self):return len(self.data)def __getitem__(self, index):sample = self.data[index]label = self.labels[index]if self.transform:sample = self.transform(sample)return sample, label# 数据转换
transform = transforms.Compose([transforms.ToTensor(),transforms.Normalize(mean=[0.5], std=[0.5])
])# 创建数据集实例
data = [...]  # 原始数据
labels = [...]  # 标签
dataset = MyDataset(data, labels, transform=transform)# 创建数据加载器
batch_size = 64
shuffle = True
dataloader = DataLoader(dataset, batch_size=batch_size, shuffle=shuffle)

在上述示例中,我们创建了一个自定义数据集类 MyDataset,并传入原始数据、标签和数据转换函数 transform。然后,我们使用 DataLoader 创建数据加载器 dataloader,设置批次大小为 64,并指定是否随机打乱数据。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/181583.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

2.10 CSS BFC

1.简介 BFC是Block Formatting Context(块级格式上下文)&#xff0c;可以理解成元素的一个“特异功能”。该“特异功能”&#xff0c;在默认的情况下处于关闭状态;当元素满足了某些条件后&#xff0c;该"特异功能被激活。所谓激活"特异功能”&#xff0c;专业点说就…

【KVM】软件虚拟化和硬件虚拟化类型

前言 大家好&#xff0c;我是秋意零。 今天介绍的内容是虚拟化技术以及软件虚拟化和硬件虚拟化。 &#x1f47f; 简介 &#x1f3e0; 个人主页&#xff1a; 秋意零&#x1f525; 账号&#xff1a;全平台同名&#xff0c; 秋意零 账号创作者、 云社区 创建者&#x1f9d1; 个…

Leetcode—187.重复的DNA序列【中等】

2023每日刷题&#xff08;二十&#xff09; Leetcode—187.重复的DNA序列 实现代码 class Solution { public:const int L 10;vector<string> findRepeatedDnaSequences(string s) {unordered_map<string, int> str;vector<string> ans;int len s.size()…

【市场分析】Temu数据采集销售额商品量占比分析数据分析接口Api

引言 temu电商平台是一个充满活力的电商平台&#xff0c;拥有多种商品类别和数万家店铺。在这个项目中我的任务是采集平台上的大量公开数据信息。通过数据采集&#xff0c;我旨在深入了解temu电商平台的产品分布、销售趋势和文本描述&#xff0c;以揭示有趣的见解。 数据采集…

PyQuery库写一个有趣的爬虫程序

PyQuery库是一个基于jQuery语法的Python库&#xff0c;它可以方便地对HTML/XML文档进行解析和操作。使用PyQuery库可以快速地获取网页中的数据&#xff0c;进行数据清洗和分析。PyQuery库的基本用法包括字符串初始化、打开网页、css属性、标签内容等获取、DOM基本操作等相关技巧…

Scala 泛型编程

1. 泛型 Scala 支持类型参数化&#xff0c;使得我们能够编写泛型程序。 1.1 泛型类 Java 中使用 <> 符号来包含定义的类型参数&#xff0c;Scala 则使用 []。 class Pair[T, S](val first: T, val second: S) {override def toString: String first ":" sec…

设置DevC++支持c++11标准

1.点击编译选项 2. 设置语言标准 3.点击确认 4.测试代码 使用auto成功 测试&#xff01;

【Linux】:Linux项目自动化构建工具——make/Makefile || Linux第一个小程序——进度条(简单版本)

在本章开始给大家分享一个图片 希望对你有帮助 在这里插入图片描述 &#x1f3c6;前言 在开始本章之前 我们需要回顾一下上节课的函数的动静态库的优缺点 动态库的优点&#xff1a; 比较节省资源&#xff08;这里说的资源不仅仅是磁盘资源 也包括网络资源 内存资源等等&#…

【SpringCloud Alibaba -- Nacos】Linux 搭建 Nacos 集群

搭建 Nacos 集群 架构 centos安装docker https://docs.docker.com/engine/install/centos/ 详细配置过程 MySql8 mysql数据库配置 数据库脚本 nacos/conf/nacos-mysql.sql Nacos2 application.properties 修改为mysql spring.datasource.platformmysqldb.num1 db.url…

0007Java安卓程序设计-ssm基于Android的校园新闻管理系统

文章目录 **摘** **要**目 录开发环境 编程技术交流、源码分享、模板分享、网课教程 &#x1f427;裙&#xff1a;776871563 摘 要 网络的广泛应用给生活带来了十分的便利。所以把校园新闻管理与现在网络相结合&#xff0c;利用java技术建设校园新闻管理系统app&#xff0c;实…

数据结构与算法(Java版) | 排序算法的介绍与分类

各位朋友&#xff0c;现在我们即将要进入数据结构与算法&#xff08;Java版&#xff09;这一系列教程中的排序算法这一章节内容的学习中了&#xff0c;所以还请大家系好安全带&#xff0c;跟随我准备出发吧&#xff01; 相信诸位应该都知道排序算法有很多种吧&#xff01;就算没…

包装印刷行业万界星空科技云MES解决方案

印刷业的机械化程度在国内制造行业内算是比较高的&#xff0c;不算是劳动密集型企业。如书本的装订、包装的模切、烫金、糊盒等都已经有了全自动设备。印刷厂除了部分手工必须采用人工外&#xff0c;大部分都可以采用机器&#xff0c;也就意味着可以由少量工人生产出大量产品。…

核电堆芯组件动态特性试验研究

u 核电试验概述 反应堆是核电事业的核心组成部分之一&#xff0c;堆内构件、堆芯燃料组件等部件在冷却剂流动冲击下&#xff0c;会诱发剧烈振动&#xff0c;导致堆芯内试验件流道不稳定。为了保障反应堆的安全运行&#xff0c;根据国家核安全法规规定&#xff0c;有必要对受冷…

linux 查看当前目录下每个文件夹大小

要在 Linux 中查看当前目录下每个文件夹的大小&#xff0c;可以使用 du 命令&#xff08;磁盘使用情况&#xff09;结合其他一些选项。下面是几个常用的命令示例&#xff1a; 显示当前目录下每个文件夹的大小——只显示一层文件夹&#xff1a; du -h --max-depth1该命令会以人…

storm安装手册及笔记

图解Storm相关概念 图解storm的并发机制 安装Storm的步骤 1、安装一个zookeeper集群 2、上传storm的安装包&#xff0c;解压 3、修改配置文件storm.yaml #所使用的zookeeper集群主机 storm.zookeeper.servers: - "weekend05" - "weekend06"…

高性能网络编程 - 关于单台服务器并发TCP连接数理论值的讨论

文章目录 概述操作系统的限制因素文件句柄限制1. 进程限制2. 全局限制 端口号范围限制 概述 单台服务器可以支持的并发TCP连接数取决于多个因素&#xff0c;包括硬件性能、操作系统限制、网络带宽和应用程序设计。以下是一些影响并发TCP连接数的因素&#xff1a; 服务器硬件性…

力扣 141.环形链表和142.环形链表2

目录 1.环形链表Ⅰ解题思路2.环形链表Ⅰ代码实现3.环形链表Ⅱ解题思路4.环形链表Ⅱ代码实现 1.环形链表Ⅰ解题思路 利用快慢指针&#xff0c;快指针一次走两个&#xff0c;慢指针一次走一个&#xff0c;如果出现了快指针为空或者快指针的next为空的现象则说明不带环&#xff0…

【vue】封装树形下拉框组件 el-popover+el-tree+el-select

父组件使用 <template><div>{{ array }} 更多属性详见wgyTreeSelect组件<wgyTreeSelectv-model"array":list"list":multiple"true":disabled-ids"[111,113,2]"/></div> </template><script> /*…

基于 golang 从零到一实现时间轮算法 (二)

Go实现单机版时间轮 上一章介绍了时间轮的相关概念&#xff0c;接下来我们会使用 golang 标准库的定时器工具 time ticker 结合环状数组的设计思路&#xff0c;实现一个单机版的单级时间轮。 首先我们先运行一下下面的源码&#xff0c;看一下如何使用。 https://github.com/x…

2023辽宁省数学建模B题数据驱动的水下导航适配区分类预测完整原创论文分享(python求解)

大家好呀&#xff0c;从发布赛题一直到现在&#xff0c;总算完成了辽宁省数学建模B题完整的成品论文。 本论文可以保证原创&#xff0c;保证高质量。绝不是随便引用一大堆模型和代码复制粘贴进来完全没有应用糊弄人的垃圾半成品论文。 B用Python&#xff0b;SPSSPRO求解&…