Python 课程15-PyTorch

前言

PyTorch 是一个开源的深度学习框架,由 Facebook 开发,广泛应用于学术研究和工业领域。与 TensorFlow 类似,PyTorch 提供了强大的工具用于构建和训练深度学习模型。PyTorch 的动态计算图和灵活的 API 使得它特别适合研究和实验。它还支持 GPU 加速,适用于构建复杂的神经网络。

本教程将详细介绍 PyTorch 的每个常用指令和功能,帮助你从基础知识开始,逐步掌握如何使用 PyTorch 进行深度学习开发。


目录

  1. PyTorch 基础

    • 安装 PyTorch
    • 创建张量(Tensors)
    • 张量操作与计算
    • 自动微分与反向传播
  2. 神经网络构建

    • 使用 nn.Module 构建神经网络
    • 激活函数与损失函数
    • 优化器:SGD、Adam 等
    • 自定义训练循环
  3. 高级功能

    • 数据集与数据加载器
    • 使用 GPU 加速模型训练
    • 保存与加载模型
  4. 卷积神经网络 (CNN)

    • 构建 CNN 模型
    • 训练与评估 CNN
  5. 递归神经网络 (RNN)

    • 构建 RNN 与 LSTM
    • 训练与评估 RNN 模型

1. PyTorch 基础

安装 PyTorch

PyTorch 可以通过 pip 安装。你可以根据你的操作系统和硬件(例如 GPU)选择合适的安装命令:

pip install torch torchvision torchaudio

 导入 PyTorch:

import torch
创建张量(Tensors)

张量是 PyTorch 中的核心数据结构,它类似于 NumPy 数组,但支持 GPU 加速。

  • 创建张量
    # 创建一个 3x3 的随机张量
    x = torch.rand(3, 3)
    print(x)# 创建一个全 0 张量
    x = torch.zeros(3, 3)
    print(x)# 创建一个全 1 张量
    x = torch.ones(3, 3)
    print(x)
    
  • 从列表或 NumPy 创建张量
    import numpy as np# 从列表创建张量
    x = torch.tensor([1, 2, 3, 4])
    print(x)# 从 NumPy 数组创建张量
    np_array = np.array([5, 6, 7, 8])
    x = torch.from_numpy(np_array)
    print(x)
    
    张量操作与计算

    PyTorch 提供了多种张量运算函数,如加法、乘法、矩阵乘法等。它们与 NumPy 的操作类似,但支持自动微分。

  • 基本运算
    x = torch.rand(3, 3)
    y = torch.rand(3, 3)# 加法
    z = x + y
    print(z)# 乘法
    z = x * y
    print(z)# 矩阵乘法
    z = torch.matmul(x, y)
    print(z)
    
  • 重塑张量
    x = torch.rand(16)# 重塑为 4x4 的张量
    x_reshaped = x.view(4, 4)
    print(x_reshaped)
    
    自动微分与反向传播

    PyTorch 的自动微分机制通过 autograd 实现,它能够自动计算张量的梯度,从而实现反向传播。

  • 计算梯度
    # 创建一个张量,并设置 requires_grad=True 以跟踪其梯度
    x = torch.tensor([2.0, 3.0], requires_grad=True)# 定义一个简单的函数
    y = x[0]**2 + x[1]**3# 进行反向传播,计算梯度
    y.backward()# 输出梯度
    print(x.grad)  # x[0] 的梯度是 4.0,x[1] 的梯度是 27.0
    


2. 神经网络构建

PyTorch 提供了 torch.nn 模块,用于构建神经网络。通过继承 nn.Module 类,你可以创建自定义的神经网络。

使用 nn.Module 构建神经网络

以下是一个使用 PyTorch 构建的简单前馈神经网络:

import torch.nn as nnclass SimpleNN(nn.Module):def __init__(self):super(SimpleNN, self).__init__()self.fc1 = nn.Linear(28 * 28, 128)  # 输入层到隐藏层self.fc2 = nn.Linear(128, 64)       # 隐藏层self.fc3 = nn.Linear(64, 10)        # 输出层def forward(self, x):x = x.view(-1, 28 * 28)  # 展平输入x = torch.relu(self.fc1(x))  # 激活函数 ReLUx = torch.relu(self.fc2(x))x = self.fc3(x)return x# 创建模型实例
model = SimpleNN()
print(model)
激活函数与损失函数
  • 激活函数:PyTorch 提供了多种激活函数,可以在网络的前向传播中使用。
    # 使用 ReLU 激活函数
    x = torch.rand(5, 5)
    x = torch.relu(x)
    
  • 损失函数:用于计算模型预测与真实标签之间的误差。
criterion = nn.CrossEntropyLoss()  # 适用于分类问题的交叉熵损失
优化器:SGD、Adam 等

优化器用于更新模型参数。PyTorch 提供了多种优化器,如 SGDAdam

  • 使用 SGD 优化器
    import torch.optim as optim# 使用 SGD 优化器
    optimizer = optim.SGD(model.parameters(), lr=0.01)
    
  • 使用 Adam 优化器
    optimizer = optim.Adam(model.parameters(), lr=0.001)
    
自定义训练循环

以下是一个简单的训练循环示例,用于训练神经网络模型。

# 假设我们有训练数据 loader
for epoch in range(10):for batch_idx, (data, target) in enumerate(train_loader):# 将梯度置零optimizer.zero_grad()# 前向传播output = model(data)loss = criterion(output, target)# 反向传播loss.backward()# 更新权重optimizer.step()print(f'Epoch {epoch + 1}, Loss: {loss.item()}')

3. 高级功能

数据集与数据加载器

PyTorch 提供了 torch.utils.data 模块,用于加载数据集。你可以使用内置的数据集,或者自定义自己的数据集。

  • 使用内置数据集(MNIST)
    from torchvision import datasets, transforms# 定义数据变换
    transform = transforms.Compose([transforms.ToTensor(),transforms.Normalize((0.5,), (0.5,))
    ])# 加载 MNIST 数据集
    train_dataset = datasets.MNIST(root='data', train=True, transform=transform, download=True)
    test_dataset = datasets.MNIST(root='data', train=False, transform=transform, download=True)# 创建数据加载器
    train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=32, shuffle=True)
    test_loader = torch.utils.data.DataLoader(test_dataset, batch_size=32, shuffle=False)
    
  • 自定义数据集
    from torch.utils.data import Datasetclass MyDataset(Dataset):def __init__(self, data, labels):self.data = dataself.labels = labelsdef __len__(self):return len(self.data)def __getitem__(self, idx):return self.data[idx], self.labels[idx]
    

使用 GPU 加速模型训练

PyTorch 支持使用 GPU 加速模型训练。你可以通过将模型和张量移动到 GPU 上来加速计算。

  • 检查 GPU 可用性
    device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
    print(device)
    
  • 将模型和数据移动到 GPU
model.to(device)# 将数据移动到 GPU
data, target = data.to(device), target.to(device)
保存与加载模型

你可以通过保存和加载模型的权重来持久化训练的模型。

  • 保存模型
    torch.save(model.state_dict(), 'model.pth')
    
  • 加载模型
    model = SimpleNN()
    model.load_state_dict(torch.load('model.pth'))
    

4. 卷积神经网络 (CNN)

卷积神经网络(CNN)在处理图像数据时非常有效。它能够通过卷积层提取图像的局部特征,并通过池化层减少特征图的维度。以下部分将详细介绍如何在 PyTorch 中构建和训练 CNN 模型。

构建 CNN 模型

我们将使用 PyTorch 的 torch.nn 模块构建一个 CNN 模型来处理 MNIST 手写数字分类任务。该模型包含卷积层、池化层和全连接层。

import torch.nn as nn
import torch.nn.functional as Fclass CNN(nn.Module):def __init__(self):super(CNN, self).__init__()# 卷积层 1:输入 1 个通道,输出 32 个通道,卷积核 3x3self.conv1 = nn.Conv2D(1, 32, kernel_size=3)# 卷积层 2:输入 32 个通道,输出 64 个通道self.conv2 = nn.Conv2D(32, 64, kernel_size=3)# 最大池化层:2x2 核self.pool = nn.MaxPool2D(2, 2)# 全连接层 1self.fc1 = nn.Linear(64 * 12 * 12, 128)  # MNIST 图像 28x28,经过两次卷积和池化后为 12x12# 全连接层 2self.fc2 = nn.Linear(128, 10)  # 输出为 10 类别(0-9)def forward(self, x):# 前向传播x = self.pool(F.relu(self.conv1(x)))  # 卷积 -> ReLU -> 池化x = self.pool(F.relu(self.conv2(x)))  # 卷积 -> ReLU -> 池化x = x.view(-1, 64 * 12 * 12)          # 展平张量以适配全连接层x = F.relu(self.fc1(x))               # 全连接层 -> ReLUx = self.fc2(x)                       # 输出层return x# 实例化模型
model = CNN()
print(model)
训练与评估 CNN 模型

接下来,我们将训练这个 CNN 模型,并在 MNIST 数据集上进行评估。

  • 数据加载与准备
    import torch.optim as optim
    from torchvision import datasets, transforms# 定义图像变换:将图像转换为张量并标准化
    transform = transforms.Compose([transforms.ToTensor(), transforms.Normalize((0.5,), (0.5,))])# 加载 MNIST 数据集
    train_dataset = datasets.MNIST(root='data', train=True, transform=transform, download=True)
    test_dataset = datasets.MNIST(root='data', train=False, transform=transform, download=True)train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=32, shuffle=True)
    test_loader = torch.utils.data.DataLoader(test_dataset, batch_size=32, shuffle=False)
    
  • 编译模型:我们将使用 交叉熵损失Adam 优化器 来训练模型。
    criterion = nn.CrossEntropyLoss()  # 交叉熵损失函数
    optimizer = optim.Adam(model.parameters(), lr=0.001)  # Adam 优化器
    
  • 训练模型:以下是训练循环代码,它包括前向传播、计算损失、反向传播以及权重更新。
    for epoch in range(10):  # 训练 10 个周期running_loss = 0.0for i, (inputs, labels) in enumerate(train_loader):# 梯度清零optimizer.zero_grad()# 前向传播outputs = model(inputs)loss = criterion(outputs, labels)# 反向传播loss.backward()optimizer.step()# 打印损失值running_loss += loss.item()if i % 100 == 99:  # 每 100 个 batch 打印一次print(f'Epoch {epoch + 1}, Batch {i + 1}, Loss: {running_loss / 100:.3f}')running_loss = 0.0
    
  • 模型评估:在测试集上评估模型的准确性。
    correct = 0
    total = 0
    model.eval()  # 设置模型为评估模式
    with torch.no_grad():  # 禁用梯度计算,以提高推理速度for inputs, labels in test_loader:outputs = model(inputs)_, predicted = torch.max(outputs, 1)total += labels.size(0)correct += (predicted == labels).sum().item()print(f'Accuracy on test set: {100 * correct / total:.2f}%')
    

5. 递归神经网络 (RNN)

递归神经网络(RNN)特别适合处理序列数据,例如时间序列、自然语言处理等任务。PyTorch 提供了多种 RNN 层,如 RNNGRULSTM

构建 RNN 与 LSTM 模型

LSTM(长短期记忆网络)是一种改进的 RNN,能够更好地处理长期依赖关系。下面是一个简单的 LSTM 模型。

import torch.nn as nnclass LSTM(nn.Module):def __init__(self, input_size, hidden_size, num_layers, output_size):super(LSTM, self).__init__()self.hidden_size = hidden_sizeself.num_layers = num_layers# 定义 LSTM 层self.lstm = nn.LSTM(input_size, hidden_size, num_layers, batch_first=True)# 全连接层self.fc = nn.Linear(hidden_size, output_size)def forward(self, x):# 初始化隐藏状态和记忆状态h0 = torch.zeros(self.num_layers, x.size(0), self.hidden_size).to(x.device)c0 = torch.zeros(self.num_layers, x.size(0), self.hidden_size).to(x.device)# 前向传播 LSTMout, _ = self.lstm(x, (h0, c0))# 取最后一个时间步的输出out = self.fc(out[:, -1, :])return out# 实例化 LSTM 模型
model = LSTM(input_size=28, hidden_size=128, num_layers=2, output_size=10)
print(model)
训练与评估 RNN 模型
  • 数据加载

假设我们使用 MNIST 数据集,但将每行像素视为序列输入。

train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=32, shuffle=True)
test_loader = torch.utils.data.DataLoader(test_dataset, batch_size=32, shuffle=False)
  • 训练模型
criterion = nn.CrossEntropyLoss()
optimizer = optim.Adam(model.parameters(), lr=0.001)for epoch in range(10):running_loss = 0.0for i, (inputs, labels) in enumerate(train_loader):inputs = inputs.view(-1, 28, 28)  # 将图像展平为序列形式optimizer.zero_grad()outputs = model(inputs)loss = criterion(outputs, labels)loss.backward()optimizer.step()running_loss += loss.item()if i % 100 == 99:print(f'Epoch {epoch + 1}, Batch {i + 1}, Loss: {running_loss / 100:.3f}')running_loss = 0.0
  • 评估模型
correct = 0
total = 0
model.eval()
with torch.no_grad():for inputs, labels in test_loader:inputs = inputs.view(-1, 28, 28)outputs = model(inputs)_, predicted = torch.max(outputs, 1)total += labels.size(0)correct += (predicted == labels).sum().item()print(f'Accuracy on test set: {100 * correct / total:.2f}%')

结论

通过本教程,你已经学习了如何使用 PyTorch 进行深度学习项目的构建与训练。PyTorch 强大的灵活性和动态计算图,使它成为了学术研究和工业应用中的首选工具。它提供了简洁的 API,可以让你轻松实现复杂的神经网络模型,并通过 GPU 加速显著提升训练效率。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/426123.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

springboot 项目获取 yaml/yml (或 properties)配置文件信息

文章目录 springboot 项目获取配置文件信息前言1、 Autowired 注入 Environment类2、基础用法,使用Value注解直接注入配置信息3、进阶方法(推荐使用)拓展:springboot 集成配置中心 - 以 Apollo 为例 springboot 项目获取配置文件信…

【Elasticsearch系列二】安装 Kibana

💝💝💝欢迎来到我的博客,很高兴能够在这里和您见面!希望您在这里可以感受到一份轻松愉快的氛围,不仅可以获得有趣的内容和知识,也可以畅所欲言、分享您的想法和见解。 推荐:kwan 的首页,持续学…

【STL】pair 与 map:基础、操作与应用

C 标准库中提供了许多用于处理数据结构的容器和工具。pair 和 map 是两个非常有用的工具,广泛应用于存储和处理关联数据。在本文中,我们将详细介绍 pair 与 map 的相关操作,并结合代码实例为读者提供清晰的理解。 pair:成对数据的…

SQL使用IN进行分组统计时如何将不存在的字段显示为0

这两天被扔过来一个脏活儿:做一个试点运行系统的运营指标统计。 活儿之所以称为“脏”,是因为要统计8家单位共12个项目的指标。而每个项目有3个用户类指标,以及分17个功能模块,每个功能模块又分5个维度的指标。也就是单个项目是1…

服务器数据恢复—Linux操作系统环境下网站数据的恢复案例

服务器数据恢复环境: 一台linux操作系统服务器上跑了几十个网站,服务器上只有一块SATA硬盘。 服务器故障: 服务器突然宕机,尝试再次启动失败。将硬盘拆下检测,发现存在坏扇区。找当地一家数据恢复公司处理后&#xff…

合宙Air201模组LuatOS:点点鼠标就搞定的FOTA远程升级,你知道吗?

你是不是也经常遇到小伙伴吐槽:开发是个苦差事!做项目倒还好,就怕遇到项目升级,那简直让人头大。。。 如果你也有这种困惑,就多了解一下合宙的开发工具,简单实用又高效,甚至只需点点鼠标&#…

水下目标检测数据集 urpc2021

项目背景: 水下目标检测在海洋科学研究、水下考古、海洋资源勘探等多个领域具有重要的应用价值。由于水下环境的复杂性和多变性,传统的人工检测方法存在诸多限制,自动化检测技术的需求日益增加。URPC2021数据集旨在为水下目标检测提供高质量…

Python OpenCV精讲系列 - 高级图像处理技术(七)

💖💖⚡️⚡️专栏:Python OpenCV精讲⚡️⚡️💖💖 本专栏聚焦于Python结合OpenCV库进行计算机视觉开发的专业教程。通过系统化的课程设计,从基础概念入手,逐步深入到图像处理、特征检测、物体识…

【技术分享】走进Docker的世界:从基础到实战全面解析(Docker全流程)

文章目录 【技术分享】走进Docker的世界:从基础到实战全面解析(Docker全流程)1.简介与概述1.1为什么需要使用docker1.2 使用docker的好处1.3 应用场景1.4 容器与虚拟机区别1.4 Docker和虚拟机的区别1.5 Docker官网 2. Docker快速入门2.1 Docker安装2.2 Docker核心名…

ARCGIS PRO DSK MapTool

MapTool用于自定义地图操作工具,使用户能够在ArcGIS Pro中执行特定的地图交互操作。添加 打开MapTool1.vb文件,可以看到系统已经放出MapTool1类: Public Sub New()将 IsSketchTool 设置为 true 以使此属性生效IsSketchTool TrueSketchTyp…

Errorresponsefromdaemon:toomanyrequests:Youhavereachedyourpullratelimit.

Errorresponsefromdaemon:toomanyrequests:Youhavereachedyourpullratelimit.Youmayincreasethelimitbyauthenticatingandupgrading:https://www.docker.com/increase−rate−limit.See ′ dockerrun−−help 在拉取docker进行的时候遇到这个问题,如何解决呢?本文提供的解决方…

基于springboot学生健康管理系统的设计与实现

文未可获取一份本项目的java源码和数据库参考。 进入21世纪以来,随着经济水平的高速发展,人们的生活质量有了很大提升,物质和精神生活得到了极大满足。但人们的健康水平却情况堪忧。据不完全统计,全国近七层人口处于亚健康状态&a…

《探索云原生与相关技术》

在当今的科技领域中,云原生(Cloud Native)已经成为了一个热门的话题。它代表着一种构建和运行应用程序的全新方式。 云原生的概念 云原生是一套技术体系和方法论,旨在充分利用云计算的优势来构建更具弹性、可扩展性和高效性的应…

Java或者前端 实现中文排序(调API的Demo)

目录 前言1. 前端2. Java 前言 前端 Vue 中的中文排序通常使用 JavaScript 提供的 localeCompare 方法来比较中文字符串 Java 后端可以使用 Collator 类来实现中文排序 1. 前端 在 Vue 中&#xff0c;使用 localeCompare 来实现中文字符串的排序&#xff1a; <template&…

MySQL_数据库基本操作

课 程 推 荐我 的 个 人 主 页&#xff1a;&#x1f449;&#x1f449; 失心疯的个人主页 &#x1f448;&#x1f448;入 门 教 程 推 荐 &#xff1a;&#x1f449;&#x1f449; Python零基础入门教程合集 &#x1f448;&#x1f448;虚 拟 环 境 搭 建 &#xff1a;&#x1…

在服务器上开Juypter Lab教程(远程访问)

在服务器上开Juypter Lab教程&#xff08;远程访问&#xff09; 文章目录 在服务器上开Juypter Lab教程&#xff08;远程访问&#xff09;一、安装anaconda1、安装anaconda2、提权限3、运行4、同意协议5、安装6、是否要自动初始化 conda7、结束8、检查 二、Anaconda安装Pytorch…

.net core 通过Sqlsugar生成实体

通过替换字符串的方式生成代码&#xff0c;其他代码也可以通这种方式生成 直接上代码 设置模板 将这几个模板文件设置为&#xff1a;嵌入资源 模板内容&#xff1a; using SqlSugar;namespace {Namespace}.Domain.Admin.{ModelName}; /// <summary> /// {TableDisplay…

[数据集][目标检测]葡萄成熟度检测数据集VOC+YOLO格式1123张3类别

数据集格式&#xff1a;Pascal VOC格式YOLO格式(不包含分割路径的txt文件&#xff0c;仅仅包含jpg图片以及对应的VOC格式xml文件和yolo格式txt文件) 图片数量(jpg文件个数)&#xff1a;1123 标注数量(xml文件个数)&#xff1a;1123 标注数量(txt文件个数)&#xff1a;1123 标注…

上海儿童自闭症寄宿制学校,让孩子找到归属感

在探讨自闭症儿童教育的广阔图景中&#xff0c;上海作为一座充满人文关怀的城市&#xff0c;始终致力于为这些特殊的孩子提供更加全面、专业的支持体系。而当我们把这份关注与努力投射到具体实践上&#xff0c;广州的星贝育园自闭症儿童寄宿制学校便成为了这样一个温馨而有力的…

室内灯具检测系统源码分享

室内灯具检测检测系统源码分享 [一条龙教学YOLOV8标注好的数据集一键训练_70全套改进创新点发刊_Web前端展示] 1.研究背景与意义 项目参考AAAI Association for the Advancement of Artificial Intelligence 项目来源AACV Association for the Advancement of Computer Vis…