文章目录
- 前言
- 一、What is PyTorch
- 二、Training Neural Networks
- 三、Training&Testing Neural Networks
- 四、Tensors
- 五、Training&Testing Neural Networks
- 六、torch.nn
- 七、Neural Network Training Setup
- 总结
前言
PyTorch 是一个流行的深度学习框架,具有动态计算图的特性,广泛应用于研究和生产环境。它的灵活性、简单的接口和与 Python 的深度集成使其成为构建机器学习模型的理想工具。
一、What is PyTorch
PyTorch是python中机器学习的框架
两个主要特点:
将高维的矩阵运算用GPU进行运算
用于训练深度神经网络的自动微分
在训练神经网络时需要计算一些梯度的部分,PyTorch已经将这些部分打包可以很方便的使用
二、Training Neural Networks
训练神经网络的三个步骤
机器学习笔记-1
机器学习笔记-2
三、Training&Testing Neural Networks
数据集&数据加载器
Dataset:Dataset 是数据样本和标签的集合。在 PyTorch 中,Dataset 用于存储数据样本和对应的期望输出值。它是所有数据处理的基础。
Dataloader:Dataloader 是 PyTorch 中用于将数据分批(batch)加载的工具,它将 Dataset 中的数据按照设定的批量大小(batch_size)进行分组,并能启用多线程来提高数据加载的效率。
代码示例:
Dataset:
dataset = MyDataset(file)
这里 MyDataset 是自定义的 Dataset 类,传入的数据文件 file 包含了所需的数据。
Dataloader:
dataloader = DataLoader(dataset, batch_size, shuffle=True)
这个 DataLoader 将数据集 dataset 载入,设定的 batch_size 是每次训练中处理的样本数量,并且设置 shuffle=True 代表在训练过程中数据会随机打乱。
Training:当训练模型时,shuffle=True 是常见的设置,以确保数据的顺序不会影响模型训练。
Testing:在测试时,通常不打乱数据,所以 shuffle=False。
导入模块:
from torch.utils.data import Dataset, DataLoader
PyTorch 提供了 Dataset 和 DataLoader 模块,Dataset 是用于存储和管理数据的基类,DataLoader 则用于批量加载数据。
自定义 Dataset 类:
class MyDataset(Dataset):def __init__(self, file):self.data = ...
__init__
方法:在初始化时,读取并处理数据。这里会从 file 中加载数据并存储在 self.data 中。
在实际应用中,这部分可能包括加载 CSV 文件、图像文件或其他格式的数据,并进行必要的预处理。
实现 __getitem__
方法:
def __getitem__(self, index):return self.data[index]
__getitem__
:用于通过索引获取数据集中的一个样本。每次调用时,返回指定索引位置的样本。Dataloader 会在训练时多次调用这个方法。
实现 __len__
方法:
def __len__(self):return len(self.data)
__len__
:返回数据集的样本总数。这个方法在使用 Dataloader 时用于确定一共有多少个批次(batch)。
PyTorch 中 DataLoader 从 Dataset 中按批次加载数据的过程。
四、Tensors
Tensors的形状及其维度概念,并通过 .shape() 方法来检查张量的形状。
Creat Tensors
Common Operations
张量的一些常见运算
import torch# 创建张量
x = torch.tensor([1, 2, 3])
y = torch.tensor([4, 5, 6])# 加法
z_add = x + y
print(z_add) # 输出: tensor([5, 7, 9])# 减法
z_sub = x - y
print(z_sub) # 输出: tensor([-3, -3, -3])# 求平方
z_pow = x.pow(2)
print(z_pow) # 输出: tensor([1, 4, 9])# 求和
z_sum = x.sum()
print(z_sum) # 输出: tensor(6)# 求平均值
z_mean = x.mean()
print(z_mean) # 输出: tensor(2.)
Data Type
PyTorch v.s. NumPy
Device
Gradient Calculation
使用 自动求导(autograd)来计算张量的梯度。
五、Training&Testing Neural Networks
在PyTorch中训练和测试神经网络的流程,包括几个关键步骤:定义网络结构、损失函数、优化算法,以及训练、验证、测试的整体流程。
六、torch.nn
nn.Linear(in_features, out_features) 是 PyTorch 中的全连接层,也叫线性层(Linear Layer)。它将输入张量的每一个特征映射到输出特征空间。
- in_features:输入的特征数,即输入张量的最后一维大小。
- out_features:输出的特征数,即输出张量的最后一维大小。
- nn.Linear 是 PyTorch 中用于全连接层的模块,用于将输入特征空间线性映射到输出特征空间。
- 输入张量的形状:输入张量的最后一个维度必须与 in_features 匹配,其他维度可以任意。
- 输出张量的形状:输出张量的最后一个维度为 out_features,其他维度与输入张量相同。
Network Layers
- 全连接层:每个输入特征与每个输出神经元都有一个权重连接,计算方式为输入张量乘以权重矩阵加上偏置向量。
- 矩阵表示:通过矩阵乘法快速实现大规模输入特征到输出特征的映射,PyTorch 中的 nn.Linear 实现了这一操作。
- 输入输出维度:输入维度与权重矩阵的列数相同,输出维度与权重矩阵的行数相同。
Network Parameters
PyTorch中nn.Linear全连接层的网络参数——权重和偏置
W 是权重矩阵,大小为[64,32]。
x 是输入张量,大小为 [32]。
b 是偏置向量,大小为 [64]。
y 是输出张量,大小为 [64]。
Non-Linear Activation Functions
两种非线性激活函数:Sigmoid 和 ReLU。
激活函数引入了非线性,使神经网络能够拟合更复杂的模式。线性层(如 nn.Linear)本身是线性的,如果不加入非线性激活函数,整个神经网络的表现将退化为线性变换,无法处理复杂的非线性问题。
Build your own neural network
用 PyTorch 的 torch.nn 模块来自定义一个神经网络模型。
导入必要的模块:
import torch.nn as nn
- torch.nn 是 PyTorch 中的神经网络模块,提供了构建神经网络模型所需的所有层和功能。
定义一个继承自 nn.Module 的模型类:
class MyModel(nn.Module):def __init__(self):super(MyModel, self).__init__()self.net = nn.Sequential(nn.Linear(10, 32),nn.Sigmoid(),nn.Linear(32, 1))
- 这里定义了一个名为 MyModel 的类,继承自 nn.Module,这是 PyTorch 中所有神经网络的基类。每个自定义模型都需要继承这个类。
在 init() 方法中:
使用 super() 来初始化父类(nn.Module)。
self.net 定义了网络的层次结构:
nn.Linear(10, 32):一个全连接层,输入维度为 10,输出维度为 32。
nn.Sigmoid():使用 Sigmoid 激活函数。
nn.Linear(32, 1):另一个全连接层,将输出维度从 32 映射到 1。
这些层被组合在 nn.Sequential 中,这是一个容器,用来按顺序堆叠层。
定义前向传播(forward)函数:
def forward(self, x):return self.net(x)
- forward() 函数是 PyTorch 中所有模型的核心,用来定义数据的前向传播过程。
- 在这个函数中,输入数据 x 通过 self.net(即模型的所有层)进行计算,并返回最终的输出结果。
nn.Module 是所有神经网络的基类,定义自定义模型时需要继承它。
nn.Sequential 是一个按顺序堆叠多个层的容器,可以简化神经网络的定义。
forward() 函数 定义了前向传播的逻辑,用于计算模型的输出。
nn.Sequential:通过一个容器,将各层按顺序定义,前向传播时一次传递输入。使用方便,适合网络层数较少且没有复杂结构的模型。
手动定义各层:显式地定义每一层并在 forward 函数中逐层调用,灵活性更高。适合在前向传播中有更复杂操作或跳跃连接(如 ResNet 中的残差连接)。
Loss Functions
优化算法模块 torch.optim
优化算法:用于通过梯度更新模型的参数,减少误差。
随机梯度下降(SGD):经典的优化算法,简单有效。
PyTorch 实现:通过 torch.optim.SGD 或其他优化器进行参数更新。
学习率和动量:是优化器的重要超参数,影响模型的收敛速度和稳定性。
七、Neural Network Training Setup
加载数据集:
dataset = MyDataset(file)
- 使用自定义的 MyDataset 类来读取数据,file 是数据文件的路径或名称。MyDataset 是一个继承自torch.utils.data.Dataset 的类,包含了数据的读取和预处理逻辑。
创建 DataLoader:
tr_set = DataLoader(dataset, batch_size=16, shuffle=True)
- DataLoader 是 PyTorch 中用于分批次加载数据的工具。这里将 dataset 数据集以批量大小为 16 进行分组,设置shuffle=True 使数据在每个 epoch 开始时被随机打乱。
- batch_size=16:每次从数据集中加载 16 个样本。
- shuffle=True:表示在每个 epoch 训练前打乱数据,以防止模型过拟合数据的顺序。
构建模型并将其移动到设备:
model = MyModel().to(device)
- 构建了一个自定义的神经网络模型 MyModel,并将模型移动到指定的设备(如 GPU 或 CPU)。device 可以是 torch.device(‘cuda’) 或 torch.device(‘cpu’),根据你的硬件设置决定。
- .to(device):确保模型和数据被移动到同一设备(如 GPU),以加速计算。
设置损失函数:
criterion = nn.MSELoss()
- criterion 定义了损失函数,这里使用的是 均方误差损失(MSELoss),常用于回归任务。它计算模型预测值与目标值之间的平方差异。
- nn.MSELoss():适用于回归任务,输出是预测值和目标值之间的均方误差。
设置优化器:
optimizer = torch.optim.SGD(model.parameters(), lr=0.1)
- optimizer 定义了优化算法,这里使用的是 随机梯度下降(SGD) 优化器。它负责根据计算出的梯度更新模型参数,以最小化损失函数。
- model.parameters():返回模型的所有可训练参数。
- lr=0.1:学习率,决定每次参数更新时的步长。较大的学习率可能加速收敛,但过大会导致不稳定。
总结
PyTorch 是一个灵活、强大的深度学习框架,广泛应用于研究和实际生产中。它提供了动态计算图、GPU 加速、易用的 API 和丰富的社区资源,适合从初学者到专家的各种需求。通过 PyTorch,你可以轻松构建、训练和优化各种复杂的神经网络模型。