文章目录
- Pytorch最最适合研究生的入门教程
- Q3 开始训练
- 3.1 训练的见解
- 3.2 Pytorch基本训练框架
- work
Pytorch最最适合研究生的入门教程
Q3 开始训练
3.1 训练的见解
如何理解深度学习能够完成任务? 考虑如下回归问题
由函数 y = f ( x ) y=f(x) y=f(x)采样得到的100个点
1 x l n x + 0.65 ∣ l n ( x + x 2 − l g ( x + 1 ) ) ∣ + 0.05 R ( t ) \frac{1}{x}lnx+0.65\lvert ln(x+x^2 - lg(x+1)) \rvert + 0.05R(t) x1lnx+0.65∣ln(x+x2−lg(x+1))∣+0.05R(t)
其中 R ( t ) R(t) R(t)函数用于生成0-1的随机数
而我们在回归任务中主要有两个
①通过前80个点进行训练,推理得到后20个点
②通过训练100个点中随机80个点,推理其余20个点的值
以上①属于外推任务,②属于内插任务
内插
内插是指利用已知数据点来预测或估计已知数据点之间的值①仅限于已知数据点的范围内,即预测已知数据之间的值。
②由于数据点是已知的,内插通常比外推更可靠,因为预测的值更接近实际值。
③内插常用于插值计算,例如在绘图、科学计算和工程领域。
外推
外推是指利用已知数据点来预测或估计未知数据点,尤其是那些位于已知数据点之外的点的值。①通常用于预测已知数据点之外的值,即向数据范围的更远处进行预测。
②因为预测的是未知区域,所以外推通常伴随着较高的不确定性,结果可能不太可靠。
③在外推中,可能会使用曲线拟合、回归分析或更复杂的数学模型来预测趋势。
以下是个人理解,
相对来说,深度学习更加适合内插任务。
比如 1, 5, 10, 30, 50,预测下一个数
和 1, 10, 30, 50,预测第二个数,其难度是完全不一样的
当数据合适且都处于内插范围,即使是网络结构简单,都能有不错的效果
这项结论在CV、NLP任务中也绝对是成立的,即当训练集基本涵盖了所有可能出现的特征时,预测其余特征的难度会大幅度下降。这一点体现了神经网络的记忆性
而在针对外推等先验信息不足的任务的适合,任何结构的神经网络推理能力都是有限的!
所以,针对内插任务,我们考虑模型函数
P = g ( X , W ) P = g(X, W) P=g(X,W)
其中 P P P为神经网络的输出, X X X为模型输入(特征向量), W W W为所有参数的集合
当我们满足以下关系
如果满足
P → Y P \to Y P→Y
则可以说在 U ˚ ( X , δ ) \mathring{U}(X, \delta) U˚(X,δ)满足
M o d e l → F u n c t i o n Model \to Function Model→Function
此时称模型训练结束,且得到模型为精度最优模型
但实际训练过程中, 基本采用 P → Y + r ( X , Y ) P \to Y+r(X,Y) P→Y+r(X,Y)作为目标函数
其中 r ( X , Y ) r(X,Y) r(X,Y)为损失函数
则我们最终优化式为
a r g m i n W r ( X , Y ) \mathop{argmin}\limits_{W} {r(X,Y)} Wargminr(X,Y)
而神经网络的训练过程就是通过梯度下降算法来式式子最小
3.2 Pytorch基本训练框架
我们这里规定,所有的训练代码,基本都要符合如下训练框架。而后续我们的教程也是围绕这个基本框架展开
对应以上框架,写出最最最基础的代码
import torch
import matplotlib.pyplot as plt
from torch.utils.data import TensorDataset, DataLoader# 超参数设置
batches = 16 # 批大小
lr = 1e-3 # 学习率
epochs = 100# 创造数据
X = torch.linspace(0, 1, 10000).reshape(-1, 10)
Y = torch.sigmoid(X).mean(dim=1, keepdim=True) + 0.05 * torch.rand(X.shape[0], 1)# 创建移入Dataset
dataset = TensorDataset(X, Y)# 创建移入DataLoad
dataloader = DataLoader(dataset, batch_size=batches)# 创建模型
model = torch.nn.Sequential(torch.nn.Linear(10, 128),torch.nn.Sigmoid(),torch.nn.Linear(128, 128),torch.nn.Sigmoid(),torch.nn.Linear(128, 1)
)# 创建优化器
optimizer = torch.optim.Adam(model.parameters(), lr=lr)# 创建损失函数
criterion = torch.nn.MSELoss()# 训练
for epoch in range(epochs):for idx, data in enumerate(dataloader):x, y = datap = model(x)loss = criterion(p, y)loss.backward()optimizer.step()optimizer.zero_grad()# 结束训练
with torch.no_grad():P = model(X)
loss = criterion(P, Y)
print(f'Total Loss: {float(loss):.3f}')plt.plot(P, label='prediction')
plt.plot(Y, label='Evaluation', ls='--')
plt.plot(torch.abs(P - Y), label='Absolute Loss')
plt.legend()
plt.show()
Total Loss: 0.001
其中某些参数的解释
参数 | 名词 | 解析 |
---|---|---|
batches | 批大小 | 指一次前馈中用于训练的样本数量(加速训练) |
lr | 学习率 | 学习率指梯度下降过程中的超参数 |
epochs | 迭代次数 | 指总共模型迭代次数 |
dataset | Torch中数据集类 | 训练中使用dataloader取出dataset的数据 |
dataloader | Torch中数据迭代类 | 训练中每次取出(batches)个样本 |
work
将Q2中work中的模型运用起来,修改参数后使用iris数据集进行训练