随着人工智能技术的迅猛发展,机器学习成为了现代科技领域中最炙手可热的话题之一。然而,对于初学者来说,机器学习似乎总是充满了复杂的理论和难以理解的概念。本文将带你从零开始,使用PyTorch深度学习框架
,构建一个最简单的线性回归模型
,一步步揭开机器学习的神秘面纱。无需预先的专业背景知识,只需跟随本文的指导,你就能亲手实现一个可以预测数据的机器学习模型!
一、什么是线性回归
线性回归是一种最基本的监督学习方法,其试图找到输入特征与输出结果之间的线性关系。通过训练模型,我们可以学习到一组参数,使得模型能够预测新的未知数据。
二、构建线性模型
在本文中,我们将使用 Python 的 PyTorch 库来构建一个简单的线性回归模型。PyTorch 是一个强大的深度学习框架
,它不仅支持动态计算图,还提供了大量的预定义模块和工具,使得机器学习变得更加容易。
2.1 数据准备
首先,我们需要准备一些训练数据
。假设我们有三个样本点
,每个样本有一个输入特征
和一个对应的样本输出值
:
# 数据准备:x_data 和 y_data 是两个张量(Tensor),分别代表"输入数据"和对应的"标签数据"。
# x_data 包含了数值 [1.0, 2.0, 3.0],而 y_data 包含了 [2.0, 4.0, 6.0],这表明 y_data 中的每个值都是对应 x_data 值的两倍。
# 我们的目标是训练一个模型,使其能够学习到这种输入与输出之间的映射关系。
x_data = torch.Tensor([[1.0], [2.0], [3.0]]) # 输入数据
y_data = torch.Tensor([[2.0], [4.0], [6.0]]) # 标签数据
这里,x_data
是输入特征,y_data
是样本输出值。
2.2 定义模型
接下来,我们需要定义一个模型
来学习输入特征与输出值之间的关系
。这里我们使用 PyTorch 提供的 torch.nn.Module
来定义一个简单的线性模型。
# 定义一个名为 LinearModel 的类,该类继承自 torch.nn.Module
class LinearModel(torch.nn.Module):# 在 __init__ 方法中,创建了一个线性层 self.linear = torch.nn.Linear(1, 1),接受一个输入特征并产生一个输出特征def __init__(self):super(LinearModel, self).__init__()# 实例化了一个具有单个输入和单个输出的线性层。# 这意味着该层会学习一个权重和一个偏差值,用于将输入标量转换成输出标量。self.linear = torch.nn.Linear(1, 1)# 定义了如何通过模型进行前向传播。对于输入 x,它返回经过线性变换后的结果 y_pred。def forward(self, x): y_pred = self.linear(x) return y_pred
在这个模型中,我们创建了一个线性层,它将输入的标量值转换为一个标量输出。
2.3 损失函数和优化器
为了训练模型,我们需要定义损失函数
和优化器
。
损失函数
衡量了模型预测值与实际值之间的差异
;优化器
则负责根据损失函数的反馈来更新模型参数
。
# 创建一个 LinearModel 类的实例
model = LinearModel()
# 均方误差损失函数:torch.nn.MSELoss 计算预测值和真实值之间的均方误差
# size_average=False 控制损失值是否会被平均
criterion = torch.nn.MSELoss(size_average=False)
# 随机梯度下降优化器:torch.optim.SGD 随机梯度下降优化器,通过沿着梯度方向更新参数来最小化损失函数。
# model.parameters() 获取模型的所有可学习参数。LinearModel 中定义了一个线性层,其有两个参数"权重weight"、"偏置bias"。model.parameters()返回这两个参数。
# lr=0.01 学习率(Learning Rate),决定了每次参数更新的步长大小。
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)
2.4 训练模型
现在,我们可以开始训练模型了,通过多次迭代来调整模型参数,使其能够更好地拟合数据。
# 训练模型:
# 在 for 循环中迭代执行 1000 次训练周期(epoch)。每一次迭代中:
for epoch in range(1000):# 计算模型对 x_data 的预测 y_predy_pred = model(x_data)# 计算损失 loss,即 y_pred 与实际标签 y_data 之间的差异loss = criterion(y_pred, y_data)# 打印当前的 epoch 数和损失值print(epoch, loss.item())# 清空梯度缓存:# 在PyTorch中,梯度是通过反向传播计算出来的。# 当我们调用 loss.backward() 时,PyTorch会自动计算损失函数关于模型参数的梯度,并将这些梯度存储在每个参数的.grad 属性中。# 如果不显式地清零梯度,那么每次调用loss.backward()都会将新计算出的梯度加上上次计算的结果,导致梯度不正确。optimizer.zero_grad()# 反向传播计算梯度loss.backward()# 在完成一次反向传播计算梯度之后,根据这些梯度更新模型的参数。利用优化器中定义的更新规则,来调整模型的权重和偏置,以期减少损失函数的值。optimizer.step()
在训练过程中,我们通过 loss.backward()
计算损失相对于模型参数的梯度,并通过 optimizer.step()
使用这些梯度来更新模型参数。
2.5 测试模型
训练完成后,我们可以查看模型学习到的权重和偏置,并用它来预测新的输入数据。
#
# 打印出模型的权重 model.linear.weight.item()
print('w = ', model.linear.weight.item())
# 打印出模型的偏置 model.linear.bias.item()
print('b = ', model.linear.bias.item())
#
# 使用训练好的模型预测新的输入 x_test = [[4.0]] 对应的输出值 y_test 并打印出来
x_test = torch.Tensor([[4.0]])
y_test = model(x_test)
print('y_pred = ', y_test.data)
三、模型网络结构及源码
这个模型可以被视为最简单的线性回归模型
,其结构可以用以下公式表示:
y = f ( w ∗ x + b ) y=f(w * x + b) y=f(w∗x+b)
其中:
x
是输入数据;y
是预测输出;w
是权重;b
是偏置项;f
是激活函数:由于该模型为一个非常简单的线性回归模型,只包含一个线性层,代码实现中并没有使用激活函数
,但还是有必要了解一下激活函数,所以这里将其写了出来。
激活函数的作用
是将那些无边界的输入转化成一组良好的,可预测的输出形式。一种常用的激活函数是Sigmoid函数,该激活函数仅输出范围(0,1)之间的数,你可以把它想象成将一组存在于(−∞,+∞)间的数字压缩到(0,1)之间,越大的负数(指绝对值越大)输出后会越接近0,越大的正数输出后会越接近1。
3.1 模型网络结构
其模型网络结构
也是非常简单,只有一个网络节点。
3.2 完整源代码
在模型训练过程中,模型通过不断调整权重 w
和偏置 b
来最小化损失函数(均方误差),使得模型的预测值 y_pred
尽可能接近实际标签 y_data
。
最终完整的可执行源代码
如下:
# 案例详细展示了如何使用 PyTorch 框架,从零开始构建一个单输入单输出的线性回归模型。
# 然后通过梯度下降法对模型进行训练,以预测输入值对应的输出值。
# 以下是详细的步骤解析说明:
import torch
# 数据准备:x_data 和 y_data 是两个张量(Tensor),分别代表"输入数据"和对应的"标签数据"。
# x_data 包含了数值 [1.0, 2.0, 3.0],而 y_data 包含了 [2.0, 4.0, 6.0],这表明 y_data 中的每个值都是对应 x_data 值的两倍。
# 因此,我们的目标是训练一个模型,使其能够学习到这种输入与输出之间的映射关系。
x_data = torch.Tensor([[1.0], [2.0], [3.0]])
y_data = torch.Tensor([[2.0], [4.0], [6.0]])# 定义一个名为 LinearModel 的类,该类继承自 torch.nn.Module
class LinearModel(torch.nn.Module):# 在 __init__ 方法中,创建了一个线性层 self.linear = torch.nn.Linear(1, 1),接受一个输入特征并产生一个输出特征def __init__(self):super(LinearModel, self).__init__()# 实例化了一个具有单个输入和单个输出的线性层。# 这意味着该层会学习一个权重和一个偏差值,用于将输入标量转换成输出标量。self.linear = torch.nn.Linear(1, 1)# 定义了如何通过模型进行前向传播。对于输入 x,它返回经过线性变换后的结果 y_pred。def forward(self, x): y_pred = self.linear(x) return y_pred# 创建一个 LinearModel 类的实例
model = LinearModel()
# 均方误差损失函数:torch.nn.MSELoss 计算预测值和真实值之间的均方误差
# size_average=False 控制损失值是否会被平均
criterion = torch.nn.MSELoss(size_average=False)
# 随机梯度下降优化器:torch.optim.SGD 随机梯度下降优化器,通过沿着梯度方向更新参数来最小化损失函数。
# model.parameters() 获取模型的所有可学习参数。LinearModel 中定义了一个线性层,其有两个参数"权重weight"、"偏置bias"。model.parameters()返回这两个参数。
# lr=0.01 学习率(Learning Rate),决定了每次参数更新的步长大小。
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)
#
# 训练模型:
# 在 for 循环中迭代执行 1000 次训练周期(epoch)
for epoch in range(1000):# 计算模型对 x_data 的预测 y_predy_pred = model(x_data)# 计算损失 loss,即 y_pred 与实际标签 y_data 之间的差异loss = criterion(y_pred, y_data)# 打印当前的 epoch 数和损失值print(epoch, loss.item())# 清空梯度缓存:# 在PyTorch中,梯度是通过反向传播计算出来的。# 当我们调用 loss.backward() 时,PyTorch会自动计算损失函数关于模型参数的梯度,并将这些梯度存储在每个参数的.grad 属性中。# 如果不显式地清零梯度,那么每次调用loss.backward()都会将新计算出的梯度加上上次计算的结果,导致梯度不正确。optimizer.zero_grad()# 反向传播计算梯度loss.backward()# 在完成一次反向传播计算梯度之后,根据这些梯度更新模型的参数。利用优化器中定义的更新规则,来调整模型的权重和偏置,以期减少损失函数的值。optimizer.step()
#
# 打印出模型的权重 model.linear.weight.item()
print('w = ', model.linear.weight.item())
# 打印出模型的偏置 model.linear.bias.item()
print('b = ', model.linear.bias.item())
#
# 使用训练好的模型预测新的输入 x_test = [[4.0]] 对应的输出值 y_test 并打印出来
x_test = torch.Tensor([[4.0]])
y_test = model(x_test)
print('y_pred = ', y_test.data)
3.3 训练参数及预测结果
模型的训练参数
及预测结果
输出:
w = 1.9996986389160156
b = 0.0006850397912785411
y_pred = tensor([[7.9995]])
这个模型是一个非常基础的单输入单输出线性回归模型,适用于解决简单的回归问题,例如预测输入标量与输出标量之间的线性关系。尽管模型结构简单,但它为我们提供了一个很好的起点,以了解如何使用 PyTorch 构建和训练模型
。
四、增加模型节点
要增加模型的节点
,即增加隐藏层
或增加隐藏层中的节点数
,可以通过修改模型定义来实现。以下是增加隐藏层数
和增加隐藏层节点数
的示例。
4.1 增加隐藏层数
如果我们想增加隐藏层数,可以在模型中添加隐藏层。例如,增加一个隐藏层。
# 定义带有隐藏层的线性模型
class MultiLayerLinearModel(torch.nn.Module): def __init__(self): super(MultiLayerLinearModel, self).__init__() # 添加一个隐藏层,输入1个特征,输出1个特征 self.hidden = torch.nn.Linear(1, 1) # 添加一个输出层,输入1个特征,输出1个特征 self.output = torch.nn.Linear(1, 1) def forward(self, x): # 通过隐藏层,激活函数可以使用ReLU或其他激活函数 x = torch.relu(self.hidden(x)) # 通过输出层 y_pred = self.output(x) return y_pred
4.2 增加隐藏层数
如果我们想增加隐藏层的节点数
,可以修改隐藏层的输入和输出特征数
。例如,将隐藏层的输出特征数从 1 增加到 3
。
# 定义一个名为 LinearModel 的类,该类继承自 torch.nn.Module
class MultiLayerLinearModel(torch.nn.Module): def __init__(self): super(MultiLayerLinearModel, self).__init__() # 添加一个隐藏层,输入1个特征,输出3个特征 self.hidden = torch.nn.Linear(1, 3) # 添加一个输出层,输入3个特征,输出1个特征 self.output = torch.nn.Linear(3, 1) def forward(self, x): # 通过隐藏层,激活函数可以使用ReLU或其他激活函数 x = torch.relu(self.hidden(x)) # 通过输出层 y_pred = self.output(x) return y_pred
4.3 完整代码
以下是完整的代码示例,包括增加隐藏层节点数和增加隐藏层数的情况:
import torch # 数据准备:x_data 和 y_data 是两个张量(Tensor),分别代表"输入数据"和对应的"标签数据"。
# x_data 包含了数值 [1.0, 2.0, 3.0],而 y_data 包含了 [2.0, 4.0, 6.0],这表明 y_data 中的每个值都是对应 x_data 值的两倍。
# 因此,我们的目标是训练一个模型,使其能够学习到这种输入与输出之间的映射关系。
x_data = torch.Tensor([[1.0], [2.0], [3.0]])
y_data = torch.Tensor([[2.0], [4.0], [6.0]])
#
# 定义一个名为 LinearModel 的类,该类继承自 torch.nn.Module
class MultiLayerLinearModel(torch.nn.Module): def __init__(self): super(MultiLayerLinearModel, self).__init__() # 添加一个隐藏层,输入1个特征,输出3个特征 self.hidden = torch.nn.Linear(1, 3) # 添加一个输出层,输入3个特征,输出1个特征 self.output = torch.nn.Linear(3, 1) # 定义了如何通过模型进行前向传播。 def forward(self, x): # 通过隐藏层,激活函数可以使用ReLU或其他激活函数 x = torch.relu(self.hidden(x)) # 通过输出层 y_pred = self.output(x) return y_pred #
# 创建一个 MultiLayerLinearModel 类的实例
model = MultiLayerLinearModel()
# 均方误差损失函数:torch.nn.MSELoss 计算预测值和真实值之间的均方误差
# size_average=False 控制损失值是否会被平均
criterion = torch.nn.MSELoss(size_average=False)
# 随机梯度下降优化器:torch.optim.SGD 随机梯度下降优化器,通过沿着梯度方向更新参数来最小化损失函数。
# model.parameters() 获取模型的所有可学习参数。LinearModel 中定义了一个线性层,其有两个参数"权重weight"、"偏置bias"。model.parameters()返回这两个参数。
# lr=0.01 学习率(Learning Rate),决定了每次参数更新的步长大小。
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)
#
# 训练模型:
# 在 for 循环中迭代执行 1000 次训练周期(epoch)
for epoch in range(1000): # 计算模型对 x_data 的预测 y_pred y_pred = model(x_data) # 计算损失 loss,即 y_pred 与实际标签 y_data 之间的差异 loss = criterion(y_pred, y_data) # 打印当前的 epoch 数和损失值 print(epoch, loss.item()) # 清空梯度缓存: # 在PyTorch中,梯度是通过反向传播计算出来的。 # 当我们调用 loss.backward() 时,PyTorch会自动计算损失函数关于模型参数的梯度,并将这些梯度存储在每个参数的.grad 属性中。 # 如果不显式地清零梯度,那么每次调用loss.backward()都会将新计算出的梯度加上上次计算的结果,导致梯度不正确。 optimizer.zero_grad() # 反向传播计算梯度 loss.backward() # 在完成一次反向传播计算梯度之后,根据这些梯度更新模型的参数。利用优化器中定义的更新规则,来调整模型的权重和偏置,以期减少损失函数的值。 optimizer.step()
#
# 打印模型参数
print('Hidden layer:')
print('w = ', model.hidden.weight)
print('b = ', model.hidden.bias)
print('Output layer:')
print('w = ', model.output.weight)
print('b = ', model.output.bias) # 测试模型
x_test = torch.Tensor([[4.0]])
y_test = model(x_test)
print('y_pred = ', y_test.data)
4.4 训练参数及预测结果
模型的训练参数
及预测结果
输出:
Hidden layer:
w = Parameter containing:tensor([[0.1732],[1.4368],[-0.9307]], requires_grad=True)
b = Parameter containing:tensor([ 0.0400, -0.1946, 0.5237], requires_grad=True)
Output layer:
w = Parameter containing:tensor([[0.0159, 1.3901, 0.5729]], requires_grad=True)
b = Parameter containing:tensor([0.2699], requires_grad=True)
y_pred = tensor([[8.0000]])
4.5 模型网络结构
增加隐藏层
和增加隐藏层中的节点数
后的模型网络结构如下图所示。
注:
f是激活函数
,激活函数用来将那些无边界的输入转化成一组良好的,可预测的输出形式。一种常用的激活函数是Sigmoid函数,该激活函数仅输出范围(0,1)之间的数,你可以把它想象成将一组存在于(−∞,+∞)间的数字压缩到(0,1)之间,越大的负数(指绝对值越大)输出后会越接近0,越大的正数输出后会越接近1。
五、参考
An Introduction to Neural Networks
https://victorzhou.com/blog/intro-to-neural-networks/
PyTorch简单示例:
https://blog.csdn.net/yj13811596648/article/details/106886666