人工智能应用-实验8-用生成对抗网络生成数字图像

文章目录

    • 🧡🧡实验内容🧡🧡
    • 🧡🧡代码🧡🧡
    • 🧡🧡分析结果🧡🧡
    • 🧡🧡实验总结🧡🧡

🧡🧡实验内容🧡🧡

以MNIST 数据集为训练数据,用生成对抗网络生成手写数字 5的图像(编程语言不限,如Python 等)。


🧡🧡代码🧡🧡

import torch
from torch import nn
from torch.optim import Adam
import torch.nn.functional as F
from torchvision import transforms, datasets
import matplotlib.pyplot as plt
import time
import pandastransform = transforms.Compose([transforms.ToTensor(),
])train_set = datasets.MNIST('data', train=True, download=True, transform=transform)
train_loader = torch.utils.data.DataLoader(train_set, batch_size=1, shuffle=False) # 批次为1,不打乱数据# !nvidia-smi
# 检查GPU是否可用
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
print(device)#@title 模型
#返回size大小的均值为0,均方误差为1的随机数
def generate_random(size):random_data = torch.randn(size)return random_data# def generate_random(size): # 均匀分布的随机数,会产生模式崩溃
#     random_data = torch.rand(size)
#     return random_data#判别器
class Discriminator(nn.Module):def __init__(self):super().__init__()self.model=nn.Sequential(nn.Linear(784, 200), # 全连接层 784维特征(像素点) => 200维特征nn.LeakyReLU(0.02), # 激活层:f(x)=max(ax,x) ann.LayerNorm(200), # 归一化层nn.Linear(200, 1), # 全连接层 200维特征(像素点) => 1维标量nn.Sigmoid() # 将1维标量缩放结果到0-1之间,以0.5作为二分类结果)self.loss_function = nn.BCELoss() # 定义损失函数self.optimiser = torch.optim.Adam(self.parameters(), lr=0.0001) # 创建优化器,使用Adam梯度下降# 计数器和损失记录self.counter = 0self.loss_list = []def forward(self, inputs):return self.model(inputs)def train(self, inputs, targets):outputs = self.forward(inputs)  # 计算网络前向传播输出loss = self.loss_function(outputs, targets) # 计算损失值self.counter += 1if (self.counter % 10 == 0): # 每训练10次记录损失值self.loss_list.append(loss.item())if (self.counter % 10000 == 0): # 每训练10000次打印进程print("counter = ", self.counter)self.optimiser.zero_grad() #在反向传播前先把梯度归零loss.backward() #反向传播,计算各参数对于损失loss的梯度self.optimiser.step()  #根据反向传播得到的梯度,更新模型权重参数def plot_loss_process(self):df = pandas.DataFrame(self.loss_list, columns=['Discriminator Loss'])ax = df.plot(figsize=(12,6), alpha=0.1,marker='.', grid=True, yticks=(0, 0.25, 0.5, 1.0, 5.0))ax.set_title("Discriminator Loss")# 生成器
class Generator(nn.Module):def __init__(self):super().__init__()# 定义神经网络层self.model = nn.Sequential(nn.Linear(100, 200), # 全连接层 100维噪声 => 200维特征nn.LeakyReLU(0.02), # 激活函数nn.LayerNorm(200), # 标准化nn.Linear(200, 784), # 200维特征 => 784像素特征nn.Sigmoid() # 每个像素点缩放到0-1)# 创建生成器,使用Adam梯度下降self.optimiser = torch.optim.Adam(self.parameters(), lr=0.0001)# 计数器和损失记录self.counter = 0self.loss_list = []def forward(self, inputs):# 运行模型return self.model(inputs)def train(self, D, inputs, targets):g_output = self.forward(inputs) # 计算网络输出d_output = D.forward(g_output) # 输入判别器loss = D.loss_function(d_output, targets) # 计算损失值self.counter += 1if (self.counter % 10 == 0):  # 每训练10次记录损失值self.loss_list.append(loss.item())# 梯度归零,反向传播,并更新权重self.optimiser.zero_grad()loss.backward()#更新由self.optimiser而不是D.optimiser触发。这样一来,只有生成器的链接权重得到更新self.optimiser.step()def plot_loss_process(self):df = pandas.DataFrame(self.loss_list, columns=['Generator Loss'])ax = df.plot(figsize=(12,6), alpha=0.1,marker='.', grid=True, yticks=(0, 0.25, 0.5, 1.0, 5.0))ax.set_title("Generator Loss")D = Discriminator()
G = Generator()
D = D.to(device)
G = G.to(device)#@title train
epochs=1
start_time=time.time()
for epoch in range(epochs):print(f"=============Epoch={epoch}============")for step, (images, labels) in enumerate(train_loader):images = images.to(device)image_data_tensor=images.view(-1)# ==使用真实数据训练判别器, 并标注真实数据为正样本(1)==D.train( image_data_tensor, torch.FloatTensor([1.0]).to(device) )# ==用生成数据(fake)训练判别器, 并标注生成数据为负样本(0)==# 同时使用detach()以避免计算生成器G中的梯度D.train( G.forward(generate_random(100).to(device)).detach(), torch.FloatTensor([0.0]).to(device) )# ==训练生成器, 让判别器对于生成器的生成数据评分尽可能接近正样本(1)==G.train( D, generate_random(100).to(device), torch.FloatTensor([1.0]).to(device) )
print(f"cost all time={(time.time()-start_time)/60} minutes")# 保存模型
torch.save(D, 'GAN_Digits_D.pt')
torch.save(G, 'GAN_Digits_G.pt')
# 加载模型
D=torch.load('GAN_Digits_D.pt')
G=torch.load('GAN_Digits_G.pt')
G.plot_loss_process()
D.plot_loss_process()
# 生成效果图
f, axarr = plt.subplots(2,3, figsize=(16,8))
for i in range(2):for j in range(3):output = G.forward(generate_random(100).to(device))output = output.cpu()img = output.detach().numpy().reshape(28,28)axarr[i,j].imshow(img, interpolation='none', cmap='Blues')

🧡🧡分析结果🧡🧡

数据预处理:
加载数据集:
加载torch库中自带的minst数据集
转换数据:
转为tensor变量(相当于直接除255归一化到值域为(0,1))。
此处不同于CNN和BP网络实验,不再对其进行transforms.Normalize()处理,因为对抗网络中,生成器输入的是一个随机噪声向量,不是预处理后的图像;判别器中,输入的是真实图像和生成图像,而不是预处理后的图像,如果对输入数据进行归一化处理,会改变图像的数值范围,可能会影响判别器的判断结果。

构建对抗网络
构造判别器:
在这里插入图片描述

  • nn.Linear():全连接层,转换特征维度。
  • nn.LeakyReLU(0.02):激活层,激活函数如下,0.02即为negative_slope,用于控制负斜率的角度。相比于不具备负值响应(x<0,则y为0)的传统ReLU,LeakyReLU在负数区间表现的更加平滑,增强非线性表达能力,有助于判别器更好地区分真实样本和真实样本。
    在这里插入图片描述
  • nn.LayerNorm(200):对中间层的输出值进行标准化,让它们均值为0,避免较大值引起的梯度消失。200表示要标准化的维度数目。
  • nn.Sigmoid():将1维标量缩放结果到0-1之间,以0.5作为二分类结果。

构造生成器:
在这里插入图片描述

  • nn.Linear():全连接层,转换特征维度。这里设定输入的随机噪声维度为100,最后输出一张784像素图片。
  • nn.LeakyReLU、nn.LayerNorm、nn.Sigmoid作用同上述类似

选取损失函数:
对于分类问题,损失函数使用二元交叉熵BCELoss()往往比均方误差MSELoss()效果更好。因为它能对正确分类进行奖励,而对错误分类进行惩罚。
由于生成器无需定义损失函数,所以我们只需要修改鉴别器的损失函数即可:

训练和评估
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
每10张图记录1次loss,1次epoch训练60000张图,则1次epoch记录6000次loss,6次epoch记录36000次loss。而1次epoch训练1次生成器,训练2次判别器(1次正样本判别、1次负样本判别),所以生成器loss迭代变化横坐标为36000次,判别器loss迭代变化横坐标为72000次。
在这里插入图片描述
loss迭代变化如下图。
在这里插入图片描述
在这里插入图片描述
从图中整体来看,一开始生成器loss较高,判别器接近0,后面生成器和判别器loss逐渐分布均匀(方差减少,数值大小越来越集中)。

分析生成对抗网络中生成器和判别器的关系
实验中,判别器的loss定义为:区分真实图像和假图像的能力,即loss越小,区分能力越强
而生成器虽然没有直接定义loss,但是利用了判别器的loss,使得判别器对生成器生成的假图像的评分尽可能接近正样本,也即loss越小,生成器生成的假数据越来越接近真实图像。
上述loss的记录迭代次数太多,可能不够直观观察判别器和生成器的相对变化,计算每次epoch的平均loss如下图:
在这里插入图片描述
可以看到,刚开始生成器与判别器的博弈中处于下风,随着训练进行,生成器的loss大幅减少,说明生成器生成的图像越来越逼真,反观判别器loss增大,说明判别器开始处于下风。最后,可以看到两者的loss都趋于平稳,说明此时渐渐达到了博弈平衡,从直观的图像清晰度也能看到,对比训练初期,图像5相比最开始变得比较清晰,但当迭代一定训练次数后,清晰度似乎不再变化了。


🧡🧡实验总结🧡🧡

理论理解:
GAN的核心思想:生成器G和判别器D的一代代博弈

  • 生成器:
    生成网络,通过输入生成图像
  • 判别器:
    二分类网络,将生成器生成图像作为负样本,真实图像作为正样本
  • 优化 判别器D:
    给定G,通过G生成图像产生负样本,并结合真实图像作为正样本来训练D
  • 优化 生成器G:
    给定D,以使得D对G生成图像的评分尽可能接近正样本作为目标来训练G

G和D的训练过程交替进行,这个对抗的过程使得G生成的图像越来越逼真,D辨别的能力也越来越强。

代码实操:

  • 模式崩溃:
    在生成器生成随机数时,若生成的方法不对,可能会导致模式崩溃问题,它指的是生成器倾向于生成相似或重复的样本,而不是多样化的输出(如下图)。
    在这里插入图片描述
    在python中,torch.rand()产生的是0-1之间均匀分布的随机数,很容易导致模式崩溃,因为均匀分布的随机数无法提供足够的多样性,从而使得生成器可能会生成类似的样本。为了解决这个问题,使用torch,randn()函数从高斯分布中抽取随机数,从而增大生成器的多样性。
  • 判断对抗网络模型的收敛情况
    一方面生成器和判别器的损失函数值来监控两者的优化过程,它们的相对变化可以一定程度反映它们的博弈情况,当它们的loss的变化都慢慢趋于平稳时,可以认为模型达到收敛。当然,另一方面,通过观察图像清晰度也是比较直观的方法。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/330798.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

YOLOv10论文解读:实时端到端的目标检测模型

《博主简介》 小伙伴们好&#xff0c;我是阿旭。专注于人工智能、AIGC、python、计算机视觉相关分享研究。 ✌更多学习资源&#xff0c;可关注公-仲-hao:【阿旭算法与机器学习】&#xff0c;共同学习交流~ &#x1f44d;感谢小伙伴们点赞、关注&#xff01; 《------往期经典推…

C#【进阶】特殊语法

特殊语法、值和引用类型 特殊语法 文章目录 特殊语法1、var隐式类型2、设置对象初始值3、设置集合初始值4、匿名类型5、可空类型6、空合并操作符7、内插字符串8、单句逻辑简略写法 值和引用类型1、判断值和引用类型2、语句块3、变量的生命周期4、结构体中的值和引用5、类中的值…

C++笔试强训day32

目录 1.素数回文 2.活动安排 3.合唱团 1.素数回文 链接https://www.nowcoder.com/practice/d638855898fb4d22bc0ae9314fed956f?tpId290&tqId39945&ru/exam/oj 现将其转化为回文数&#xff08;这里用字符串存储比较方便转化&#xff09;&#xff0c;然后判断是否为…

ASP.NET Core Identity框架介绍与使用

1 ASP.NET Core Identity框架 Identity &#xff08;标识&#xff09;框架&#xff1a;采用的是基于角色的访问控制策略&#xff08;Role-Based-Controll-Access&#xff09;&#xff0c;内置了对用户、角色等表的管理以及相关的接口&#xff0c;支持外部登录、2FA等。 Identit…

构建数字未来:探索Web3在物联网中的新视角

引言 随着Web3时代的来临&#xff0c;物联网技术正迎来一场新的变革。在这个数字化时代&#xff0c;Web3所带来的技术创新将为物联网的发展开辟新的视角。本文将深入探讨Web3在物联网领域的应用&#xff0c;揭示其在构建数字未来中的重要性和影响。 Web3与物联网的融合 区块链…

Golang项目代码组织架构实践

Golang在项目结构上没有强制性规范&#xff0c;虽然这给了开发者很大的自由度&#xff0c;但也需要自己沉淀一套可行的架构。本文介绍了一种项目布局&#xff0c;可以以此为参考设计适合自己的 Golang 项目组织模式。原文: Golang Project Layout Go 有很多强制的或是约定俗成的…

如何运用多媒体,打造企业实力展示厅?

企业文化、产品是其长期发展的根本所在&#xff0c;为此越来越多的企业开始选择运用多媒体互动&#xff0c;来打造企业多媒体展厅的方式&#xff0c;对企业文化、品牌形象、产品进行推广宣传&#xff0c;并在多媒体互动装置的支持下&#xff0c;能让客户能够快速且全面的了解企…

【设计模式】JAVA Design Patterns——Converter(转换器模式)

&#x1f50d;目的 转换器模式的目的是提供相应类型之间双向转换的通用方法&#xff0c;允许进行干净的实现&#xff0c;而类型之间无需相互了解。此外&#xff0c;Converter模式引入了双向集合映射&#xff0c;从而将样板代码减少到最少 &#x1f50d;解释 真实世界例子 在真实…

cocos 写 连连看 小游戏主要逻辑(Ts编写)算法总结

cocos官方文档&#xff1a;节点系统事件 | Cocos Creator 游戏界面展示 一、在cocos编译器随便画个页面 展示页面 二、连连看元素生成 2.1、准备单个方块元素&#xff0c;我这里就是直接使用一张图片&#xff0c;图片大小为100x100&#xff0c;锚点为&#xff08;0&#xff0…

【Linux-驱动开发】

Linux-驱动开发 ■ Linux-应用程序对驱动程序的调用流程■ Linux-file_operations 结构体■ Linux-驱动模块的加载和卸载■ 1. 驱动编译进 Linux 内核中■ 2. 驱动编译成模块(Linux 下模块扩展名为.ko) ■ Linux-■ Linux-■ Linux-设备号■ Linux-设备号-分配■ 静态分配设备号…

Unity Physics入门

概述 在unity中物理属性是非常重要的&#xff0c;它可以模拟真实物理的效果在unity中&#xff0c;其中的组件是非常多的&#xff0c;让我们来学习一下这部分的内容吧。 Unity组件入门篇总目录----------点击导航 Character Controller(角色控制) 说明&#xff1a;组件是Unity提…

运算符重载(上)

目录 运算符重载日期类的比较判断日期是否相等判断日期大小 赋值运算符重载赋值运算符重载格式赋值运算符只能重载成类的成员函数不能重载成全局函数用户没有显式实现时&#xff0c;编译器会生成一个默认赋值运算符重载&#xff0c;以值的方式逐字节拷贝 感谢各位大佬对我的支持…

微信小程序反编译/解包

微信小程序反编译/解包 环境与工具 操作系统&#xff1a;Windows 11 23H2 微信版本&#xff1a;3.9.10.19 Q&#xff1a;如何找到小程序文件位置&#xff1f; A&#xff1a;在微信的设置找到文件路径&#xff0c;小程序文件位于 \WeChat Files\Applet\。 Q&#xff1a;小程…

web前端的路径和Servlet注解开发

目录 在web前端的两种路径 绝对路径的两种写法 相对路径 相对路径进阶 使用注解开发Servlet 使用注解开发Servlet的注意事项 使用idea创建servlet模板 在web前端的两种路径 绝对路径的两种写法 1.带网络三要素 http://ip地址:端口号/资源路径 2.不带网络三要素 /资源路…

Ps:消失点滤镜 - 选区操作

Ps菜单&#xff1a;滤镜/消失点 Filter/Vanishing Point 快捷键&#xff1a;Ctrl Alt V 当在“消失点”滤镜中进行绘画或修饰以校正缺陷、添加元素或改进图像时&#xff0c;可使用选区提供帮助。 通过建立选区&#xff0c;可在图像中绘制或填充特定区域的同时采用图像中的平面…

Linux之单机项目部署

1、虚拟机&#xff08;VMware&#xff09;创建Linux系统 1.1、创建虚拟机 1.2、配置虚拟机IOS映射文件 1.3、虚拟机内部相关配置 等待加载即可&#xff0c;加载完后会弹出图形化界面&#xff0c;如图&#xff1a; 注意&#xff1a;一般我们做为管理员使用ROOT账号来操作&#x…

利用sql注入对某非法网站的渗透

本文仅用于技术讨论&#xff0c;切勿用于违法途径&#xff0c;且行且珍惜&#xff0c; 所有非经授权的渗透&#xff0c;都是违法行为 前言 这段时间一直在捣鼓sql注入&#xff0c;最近又通过一个sql注入点&#xff0c;成功进入某个非法网站的后台&#xff0c;拿到整个网站的…

力扣654. 最大二叉树

Problem: 654. 最大二叉树 文章目录 题目描述思路复杂度Code 题目描述 思路 对于构造二叉树这类问题一般都是利用先、中、后序遍历&#xff0c;再将原始问题分解得出结果 1.定义递归函数build&#xff0c;每次将一个数组中的最大值作为当前子树的根节点构造二叉树&#xff1b;…

动静态库

说明&#xff1a;使用动静态库&#xff0c;一般直接安装即可&#xff0c;其他使用方法了解即可 静态库 静态库&#xff08;Static Library&#xff09;是一种将代码和数据打包成一个单独的文件的库文件&#xff0c;主要用于编译时的链接&#xff0c;而不是运行时。静态库通常…

手撕算法|斯坦福大学教授用60页PPT搞定了八大神经网络

人工智能领域深度学习的八大神经网络常见的是以下几种 1.卷积神经网络&#xff08;CNN&#xff09;&#xff1a; 卷积神经网络是用于图像和空间数据处理的神经网络&#xff0c;通过卷积层和池化层来捕捉图像的局部特征&#xff0c;广泛应用于图像分类、物体检测等领域。 2.循…