基于Python的LSTM网络实现单特征预测回归任务(pytorch版)

一、数据集

        自建数据集--【load.xlsx】。包含2列:

  • date列时间列,记录2022年6月2日起始至2023年12月31日为止,日度数据
  • price列价格列,记录日度数据对应的某品牌衣服的价格,浮点数)

二、任务目标

        实现基于时间序列的单特征价格预测

三、代码实现

1、从本地路径中读取数据文件

  • read_excel函数读取Excel文件(read_csv用来读取csv文件),并设置为DataFrame对象
  • index_col='date''date'列设置为DataFrame的索引
  • .values属性获取price列的值,pandas会将对应数据转换为NumPy数组
# 字符串前的r表示一个"原始字符串",raw string
# 文件路径中包含多个反斜杠。如果我们不使用原始字符串(即不使用r前缀),那么Python会尝试解析\U、\N等作为转义序列,这会导致错误
data = pd.read_excel(r'E:\load.xlsx', index_col='date')
# print(data)
prices = data['price'].values
# print(prices)

打印data:

打印prices:

2、数据归一化

  • 归一化:将原始数据的大小转化为[0,1]之间,采用最大-最小值归一化
    • 数值过大,造成神经网络计算缓慢
    • 在多特征任务中,存在多个特征属性,但神经网络会认为数值越小的,影响越小。所以可能关键属性A的值很小,不重要属性B的值却很大,造成神经网络的混淆
  • scikit-learn的转换器通常期望输入是二维的,其中每一行代表一个样本,每一列代表一个特征
    • prices.reshape(-1, 1) 用于确保 prices 是一个二维数组,即使它只有一个特征列
    • -1的意思是让 NumPy 自动计算该轴上的元素数量,以保持原始数据的元素总数不变
    • fit方法计算了数据中每个特征的最小值和最大值,这些值将被用于缩放
    • transform方法使用这些统计信息来实际缩放数据,将其转换到 [0, 1] 范围内
scaler = MinMaxScaler(feature_range=(0, 1))
scaled_prices = scaler.fit_transform(prices.reshape(-1, 1)) # 二维数组
# print(scaled_prices)

打印归一化后的价格数据: 

3、创建配置类,将LSTM的各个超参数声明为变量,便于后续使用

  • timestep:时间步长,滑动窗口大小
  • feature_size:每个步长对应的特征数量,这里只使用1维,即每天的价格数据
  • batch_size:批次大小,即一次性送入多少个数据(一时间步长为单位)进行训练
  • output_size:单输出任务,输出层为1,预测未来1天的价格
  • hidden_size:隐藏层大小,即神经元个数
  • num_layers:神经网络的层数
  • learning_rate:学习率
  • epochs:迭代轮数,即总共要让神经网络训练多少轮,全部数据训练一遍成为一轮
  • best_loss:记录损失
class Config():timestep = 7  # 时间步长,滑动窗口大小feature_size = 1 # 每个步长对应的特征数量,这里只使用1维,每天的价格数据batch_size = 1 # 批次大小output_size = 1 # 单输出任务,输出层为1,预测未来1天的价格hidden_size = 128 # 隐藏层大小num_layers = 1 # lstm的层数learning_rate = 0.0001 # 学习率epochs = 500 # 迭代轮数model_name = 'lstm' # 模型名best_loss = 0  # 记录损失
config = Config()

4、创建时间序列数据

  • 通过滑动窗口移动获取数据,时间步内数据作为特征数据,时间步外1个数据作为标签数据
  • 通过序列的切片实现特征和标签的划分
  • 通过np.array将数据转化为NumPy数组

# 创建时间序列数据
X, y = [], []
for i in range(len(scaled_prices) - config.timestep):# 从当前索引i开始,取sequence_length个连续的价格数据点,并将其作为特征添加到列表 X 中。X.append(scaled_prices[i: i + config.timestep])# 将紧接着这sequence_length个时间点的下一个价格数据点作为目标添加到列表y中。y.append(scaled_prices[i + config.timestep])
X = np.array(X)
y = np.array(y)

打印特征数据: 

 

打印标签数据:

 

5、划分数据集

  • 按照9:1的比例划分训练集和测试集
  • 因为时间序列数据具有时序性,用过去时间数据预测新时间数据,要保证时间有序
  • 测试数据为时间序列的末尾数据
# 确定测试集的大小
test_size = int(len(scaled_prices) * 0.1)# 为了确保训练集和测试集的划分不会破坏时间序列的连续性,我们需要从时间序列的开头开始划分训练集。
X_train = X[:-test_size]
y_train = y[:-test_size]
X_test = X[-test_size:]
y_test = y[-test_size:]

6、将数据转化为PyTorch张量

  • PyTorch使用张量作为其基本数据结构,类似于NumPy中的ndarray,但张量可以在GPU上进行加速计算
  • 神经网络通常需要单精度浮点数进行计算
X_train_tensor = torch.tensor(X_train, dtype=torch.float32)
y_train_tensor = torch.tensor(y_train, dtype=torch.float32)
X_test_tensor = torch.tensor(X_test, dtype=torch.float32)
y_test_tensor = torch.tensor(y_test, dtype=torch.float32)

打印X_train_tensor:

 

打印y_train_tensor:

7、将数据加载成迭代器

  • 使用TensorDataset从PyTorch的torch.utils.data模块创建训练数据集和测试数据集。这些数据集对象可以方便地与PyTorch的数据加载器(如DataLoader)一起使用,以在模型训练和评估过程中提供批量数据
  • 当你使用DataLoader来加载训练和测试数据集时,它会自动将数据分批处理成符合LSTM网络的输入格式:(batch_size, sequence_length, feature_size)
    • 这里的batch_size由config.batch_size指定
    • sequence_length是config.timestep
    • feature_size在这个例子中是1,因为只有一个特征
  • shuffle=False:指定是否在每个训练时开始时随机打乱数据。因为时间序列数据,要保证数据的有序性
# 形成训练数据集
train_data = TensorDataset(X_train_tensor, y_train_tensor)
test_data = TensorDataset(X_test_tensor, y_test_tensor)# 将数据加载成迭代器
train_loader = torch.utils.data.DataLoader(train_data, batch_size=config.batch_size, shuffle=False)
test_loader = torch.utils.data.DataLoader(test_data, batch_size=config.batch_size, shuffle=False)

打印迭代器:

8、定义LSTM网络

(1)配置LSTM网络的基本超参数[特征大小、隐藏层大小、网络层数、输出层大小]

(2)定义网络最后的全连接层[fc]

(3)定义神经网络模型的前向传播过程[forward( )]

        ①获取输入数据的批量大小

        ②初始化隐藏层状态

        ③LSTM运算

        ④获取LSTM网络的最后一个时间步的输出,LSTM网络的输出形状:(batch_size,             sequence_length, hidden_size)

        ⑤输出经过全连接层,产生一个值

  • torch.nn.Module类是所有神经网络模块的基类
  • 参数batch_first=True意味着输入张量的形状应该是[batch_size, sequence_length, input_size]
  • 在PyTorch中,全连接层被命名为 fc(代表“fully connected”)
    • 全连接层通常是通过 nn.Linear 类来实现的
    • 在神经网络的定义中创建一个nn.Linear实例并将其赋值给一个成员变量(如 self.fc)时,实际上是在网络中嵌入了一个全连接层
    • 这个层会在forward方法中被调用,对LSTM的输出进行线性变换
class LSTM(nn.Module):# __init__方法用于初始化模型的各种层和参数def __init__(self, feature_size, hidden_size, num_layers, output_size):super(LSTM, self).__init__()self.hidden_size = hidden_sizeself.num_layers = num_layers# 参数batch_first=True意味着输入张量的形状应该是[batch_size, sequence_length, input_size]self.lstm = nn.LSTM(feature_size, hidden_size, num_layers, batch_first=True)# input_size 是全连接层的输入特征数,output_size 是输出特征数self.fc = nn.Linear(hidden_size, output_size)# forward方法定义了输入数据通过模型各层的前向传播过程。# 模型的forward方法被自动调用,并且X_train_batch作为参数传递给这个方法。def forward(self, x, hidden=None):# 获取输入数据x的第一维度的大小,即批量大小(batch size)# x的形状通常是 (batch_size, sequence_length, feature_size)batch_size = x.shape[0]# 初始化隐藏层状态# 如果隐藏状态hidden没有被提供(即为 None),则使用全零张量来初始化LSTM的隐藏状态h_0和细胞状态c_0if hidden is None:h_0 = x.data.new(self.num_layers, batch_size, self.hidden_size).fill_(0).float()c_0 = x.data.new(self.num_layers, batch_size, self.hidden_size).fill_(0).float()else:h_0, c_0 = hidden# LSTM运算# 将输入数据 x 和初始化的隐藏状态 (h_0, c_0) 传递给LSTM层,进行前向计算。# LSTM层的输出包含两部分:输出序列lstm_output 和 最终的隐藏状态# LSTM层在其内部单元中使用了sigmoid和tanh激活函数来处理输入和循环连接# self.lstm(x, (h_0, c_0))时,LSTM层内部的计算已经包括了激活函数的应用lstm_output, (h_0, c_0) = self.lstm(x, (h_0, c_0))# 取最后一个时间步的输出# lstm_output 的形状是 (batch_size, sequence_length, hidden_size)# ::第一个维度(批量维度)取全部。# -1:第二个维度(序列长度维度)取最后一个元素。在 Python 中,-1 索引表示从末尾开始计数的第一个元素。# ::第三个维度(隐藏层大小维度)取全部。final_output = lstm_output[:, -1, :]# 全连接层# 回归任务的目标是预测一个连续值,而不是进行分类,因此输出层应该能够直接产生实数范围的输出# 在PyTorch中,如果你不指定激活函数,nn.Linear层默认就是线性的,即它不会对其输出应用任何非线性函数output = self.fc(final_output)return output

9、创建LSTM实例

(1)通过创建的LSTM类传入参数

(2)定义损失函数

(3)定义梯度下降优化器

  • model.parameters()是一个包含模型所有可训练参数的迭代器
  • Adam是一种自适应学习率的优化算法,它结合了Momentum和RMSprop的思想,通常在很多任务上表现良好
# 创建了一个LSTM模型的实例
model = LSTM(config.feature_size, config.hidden_size, config.num_layers, config.output_size)
# 损失函数
loss_function = nn.MSELoss()
# 创建一个Adam优化器的实例,用于在训练过程中更新模型的权重
optimizer = torch.optim.Adam(model.parameters(), lr=config.learning_rate)

10、训练模型

(1)调用train()方法模型训练

(2)利用训练数据集进行模型预测

(3)计算预测值和真实值之间的误差

(4)利用误差反向传播

(5)使用优化器更新权重

11、模型验证

(1)调用eval()方法模型验证

(2)传入测试数据集传入模型,得出测试数据集的预测值

(3)计算预测值和真实值之间的误差

(4)累加损失

(5)利用 损失累加值 和 测试集长度 计算平均损失

(6)将 测试集的预测值 和 真实值 组合数组

(7)将预测值 和 真实值 反归一化,转化为真实值

为什么要将模型的输出或目标变量转换为原始尺度呢?
(1)解释性:当模型的输出被缩放或标准化时,它们可能不再具有直观的解释性。例如,如果目标变量是股票价格,并且您使用 MinMaxScaler 将其缩放到 [0, 1] 范围内,那么模型输出的数值就不再代表实际的股票价格。通过逆变换,您可以将输出重新映射到其原始尺度,从而更容易地解释和沟通结果(2)性能评估:在评估模型性能时,通常需要使用与原始数据尺度相同的指标。例如,如果您要计算均方误差(MSE)或平均绝对误差(MAE),则需要在原始尺度上进行这些计算,以便正确评估预测误差的大小。
(3)可视化:当您想要将模型的预测结果与实际数据一起可视化时,使用原始尺度可以确保图表和图形具有正确的轴标签和比例,从而更容易进行视觉比较。
  • train()函数是torch.nn.Module类的一个方法
  • eval()验证模型性能
# 训练模型
for epoch in range(config.epochs):# train()函数是torch.nn.Module类的一个方法model.train()train_loss_sum = 0.0# 形成进度条train_bar = tqdm(train_loader)for data in train_bar:X_train_batch, y_train_batch = data# 这行代码清除了之前优化步骤中累积的所有梯度。由于PyTorch在反向传播时默认会累积梯度,所以在每个新的优化步骤开始之前,需要手动清除它们。optimizer.zero_grad()# 通过模型进行前向传播以获取预测值(y_train_pred)y_train_pred = model(X_train_batch)# 预测值和真实值(y_train_batch)之间的损失。loss = loss_function(y_train_pred, y_train_batch.view(-1))# 进行反向传播。它计算损失相对于模型参数的梯度,这些梯度之后将被用于更新模型的权重。loss.backward()# 根据之前计算的梯度来更新模型的权重。具体来说,它使用之前定义的Adam优化器来调整模型的参数以最小化损失。optimizer.step()train_bar.desc = "train epoch[{} / {}] loss:{:.3f}".format(epoch + 1, config.epochs, loss)# 当你想要使用已经训练好的模型来预测新的、未见过的数据时,你需要确保模型处于评估模式# 在每个epoch结束后,,模型验证# model.eval()会改变模型中特定层的行为,如Dropout和BatchNorm层,使它们在推理时保持固定# 在训练模式中,这些层可能会引入随机性或根据训练数据的统计信息进行归一化;而在评估模式中,它们会保持确定性行为,以确保输出的一致性model.eval()test_loss_sum = 0.0y_test_preds = [] # 初始化一个空列表来保存所有预测结果y_test_true = []  # 初始化一个空列表来保存所有真实值test_bar = tqdm(test_loader)# 使用了torch.no_grad()上下文管理器来确保在验证过程中不计算梯度,因为不需要更新模型的权重,从而节省内存with torch.no_grad():for data in test_bar:X_test_batch, y_test_batch = data# 将测试数据X_test传递给模型,并接收模型的预测输出# 由于梯度计算被禁用,这个前向传播过程会更快,并且不会消耗额外的资源来存储梯度信息。y_test_pred = model(X_test_batch) # 获取当前批次的预测结果# 通常用于累积测试损失(test loss)test_loss = loss_function(y_test_pred, y_test_batch.view(-1))          # test_loss.item()将PyTorch张量(tensor)中的单个值(在这种情况下是一个标量,即损失值)转换为Python数字(通常是浮点数)# 在评估模型性能时,能够计算整个测试集的平均损失,而不仅仅是单个批次或样本的损失# 通过累积所有批次或样本的损失,并在最后除以总的批次数或样本数,你可以得到一个更准确的模型性能估计test_loss_sum += test_loss.item()  # 累加损失y_test_preds.append(y_test_pred.detach().numpy())  # 将预测结果追加到列表中y_test_true.append(y_test_batch.detach().numpy())  # 将真实值追加到列表中test_loss_avg = test_loss_sum / len(test_loader)  # 计算平均测试损失y_test_preds= np.concatenate(y_test_preds, axis=0)  # 将所有批次的预测结果连接成一个数组y_test_true = np.concatenate(y_test_true, axis=0)  # 将所有批次的真实值连接成一个数组# 反归一化预测值和真实值# scaler.inverse_transform(...):使用之前拟合的 MinMaxScaler 将缩放后的预测值转换回其原始尺度# 以便在原始尺度上评估模型性能y_test_preds_unnormalized = scaler.inverse_transform(y_test_preds)y_test_true_unnormalized = scaler.inverse_transform(y_test_true.reshape(-1, 1))if test_loss_avg < config.best_loss:config.best_loss = test_loss_avg
print("训练结束")

12、绘制图像

# 绘制真实值和预测值的对比图
# 创建一个新的图形窗口,并设置其大小为宽10英寸、高5英寸。
plt.figure(figsize=(10, 5))
# 绘制真实值(y_test)的折线图,并为其添加标签 "True Values"。
plt.plot(y_test_true_unnormalized, label='True Values')
# 绘制预测值(predicted)的折线图。这条线被标记为 "Predicted Values"。
plt.plot(y_test_preds_unnormalized, label='Predictions')
plt.title('Comparison of True Values and Predictions')
plt.xlabel('Time Steps')
plt.ylabel('Prices')
plt.legend()
plt.show()

13、完整版

import pandas as pd
import numpy as np
import torch
from sklearn.preprocessing import MinMaxScaler
from torch import nn
from torch.utils.data import TensorDataset
from tqdm import tqdm
import matplotlib.pyplot as pltclass Config():timestep = 1  # 时间步长,滑动窗口大小feature_size = 1 # 每个步长对应的特征数量,这里只使用1维,每天的价格数据batch_size = 1 # 批次大小output_size = 1 # 单输出任务,输出层为1hidden_size = 128 # 隐藏层大小num_layers = 1 # bilstm的层数learning_rate = 0.0001 # 学习率epochs = 500 # 迭代轮数model_name = 'lstm' # 模型名best_loss = 0  # 记录损失
config = Config()qy_data = pd.read_excel(r'C:\Users\Wangsw\Desktop\XinJiang.xlsx', index_col='date')
prices = qy_data['price'].valuesscaler = MinMaxScaler()
scaled_prices = scaler.fit_transform(prices.reshape(-1, 1))# 创建时间序列数据
X, y = [], []
for i in range(len(scaled_prices) - config.timestep):X.append(scaled_prices[i: i + config.timestep])y.append(scaled_prices[i + config.timestep])
X = np.array(X)
y = np.array(y)# 确定测试集的大小
test_size = int(len(scaled_prices) * 0.1)# 创建训练和测试数据
X_train, y_train = [], []
X_test, y_test = [], []# 构建训练数据
for i in range(len(scaled_prices) - config.timestep - test_size):X_train.append(scaled_prices[i:i + config.timestep])y_train.append(scaled_prices[i + config.timestep])# 构建测试数据(取时间序列末尾的数据)
for i in range(len(scaled_prices) - config.timestep - test_size, len(scaled_prices) - config.timestep):X_test.append(scaled_prices[i:i + config.timestep])y_test.append(scaled_prices[i + config.timestep])# 将列表转换为NumPy数组
X_train = np.array(X_train)
y_train = np.array(y_train)
X_test = np.array(X_test)
y_test = np.array(y_test)# 将数据转换为PyTorch张量
X_train_tensor = torch.tensor(X_train, dtype=torch.float32)
y_train_tensor = torch.tensor(y_train, dtype=torch.float32)
X_test_tensor = torch.tensor(X_test, dtype=torch.float32)
y_test_tensor = torch.tensor(y_test, dtype=torch.float32)# 形成训练数据集
train_data = TensorDataset(X_train_tensor, y_train_tensor)
test_data = TensorDataset(X_test_tensor, y_test_tensor)# 将数据加载成迭代器
train_loader = torch.utils.data.DataLoader(train_data, batch_size=config.batch_size, shuffle=False)
test_loader = torch.utils.data.DataLoader(test_data, batch_size=config.batch_size, shuffle=False)# 定义LSTM网络
class LSTM(nn.Module):# __init__方法用于初始化模型的各种层和参数def __init__(self, feature_size, hidden_size, num_layers, output_size):super(LSTM, self).__init__()self.hidden_size = hidden_sizeself.num_layers = num_layersself.lstm = nn.LSTM(feature_size, hidden_size, num_layers, batch_first=True)self.fc = nn.Linear(hidden_size, output_size)# forward方法定义了输入数据通过模型各层的前向传播过程。# 模型的forward方法被自动调用,并且X_train_batch作为参数传递给这个方法。def forward(self, x, hidden=None):batch_size = x.shape[0]if hidden is None:h_0 = x.data.new(self.num_layers, batch_size, self.hidden_size).fill_(0).float()c_0 = x.data.new(self.num_layers, batch_size, self.hidden_size).fill_(0).float()else:h_0, c_0 = hiddenlstm_output, (h_0, c_0) = self.lstm(x, (h_0, c_0))lstm_output = self.dropout(lstm_output)final_output = lstm_output[:, -1, :]output = self.fc(final_output)return output# 这行代码创建了一个LSTM模型的实例
model = LSTM(config.feature_size, config.hidden_size, config.num_layers, config.output_size, config.dropout)
loss_function = nn.MSELoss()
optimizer = torch.optim.Adam(model.parameters(), lr=config.learning_rate)# 训练模型
for epoch in range(config.epochs):model.train()train_loss_sum = 0.0# 形成进度条train_bar = tqdm(train_loader)for data in train_bar:X_train_batch, y_train_batch = dataoptimizer.zero_grad()y_train_pred = model(X_train_batch)loss = loss_function(y_train_pred, y_train_batch.view(-1))loss.backward()optimizer.step()train_bar.desc = "train epoch[{} / {}] loss:{:.3f}".format(epoch + 1, config.epochs, loss)model.eval()test_loss_sum = 0.0y_test_preds = [] # 初始化一个空列表来保存所有预测结果y_test_true = []  # 初始化一个空列表来保存所有真实值test_bar = tqdm(test_loader)with torch.no_grad():for data in test_bar:X_test_batch, y_test_batch = datay_test_pred = model(X_test_batch) # 获取当前批次的预测结果test_loss = loss_function(y_test_pred, y_test_batch.view(-1))test_loss_sum += test_loss.item()  # 累加损失y_test_preds.append(y_test_pred.detach().numpy())  # 将预测结果追加到列表中y_test_true.append(y_test_batch.detach().numpy())  # 将真实值追加到列表中test_loss_avg = test_loss_sum / len(test_loader)  # 计算平均测试损失y_test_preds= np.concatenate(y_test_preds, axis=0)  # 将所有批次的预测结果连接成一个数组y_test_true = np.concatenate(y_test_true, axis=0)  # 将所有批次的真实值连接成一个数组# 反归一化预测值和真实值# scaler.inverse_transform(...):使用之前拟合的 MinMaxScaler 将缩放后的预测值转换回其原始尺度。# 以便在原始尺度上评估模型性能y_test_preds_unnormalized = scaler.inverse_transform(y_test_preds)y_test_true_unnormalized = scaler.inverse_transform(y_test_true.reshape(-1, 1))if test_loss_avg < config.best_loss:config.best_loss = test_loss_avgtorch.save(model.state_dict(), config.save_path)
print("训练结束")plt.figure(figsize=(10, 5))
plt.plot(y_test_true_unnormalized, label='True Values')
plt.plot(y_test_preds_unnormalized, label='Predictions')
plt.title('Comparison of True Values and Predictions')
plt.xlabel('Time Steps')
plt.ylabel('Prices')
plt.legend()
plt.show()

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/306714.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

linux使用docker实现redis主从复制和哨兵模式

目录 1. 拉取redis镜像 2.使用可视化redis工具 3. 设置从redis 4.设置哨兵模式 5. 使用docker-compose快速创建 1. 拉取redis镜像 docker pull redis 默认拉取最新的镜像。 然后pull结束后使用docker images检查镜像&#xff1a; 然后docker run创建container容器 首先…

matplotlib手动调用默认配色

matplotlib 画图有个默认配色方案&#xff0c;在画不同图时会保持一致。如&#xff1a; import numpy as np import matplotlib.pyplot as plt# 图 1 数据 x np.arange(12).astype(np.float32) 1 y1 np.log(x) y2 1 / x y3 np.sin(x) # 图 2 数据 a np.random.randn(200…

耐受强酸碱PFA试剂瓶高纯实验级进口聚四氟乙烯材质取样瓶

PFA取样瓶作为实验室中常备器皿耗材之一&#xff0c;主要用来盛放、储存和运输样品&#xff0c;根据使用条件不同&#xff0c;也可叫特氟龙试剂瓶、样品瓶、储样瓶、广口瓶、进样瓶等。广泛应用于半导体、新材料、多晶硅、硅材、微电子等行业。近年来随着新兴行业的快速发展&am…

01_QT编译报错:Cannot find file:问题解决

QT编译报错&#xff1a;Cannot find file:问题解决 报错原因&#xff1a;创建路径存在中文字符&#xff0c;将文件路径改为英文字符即可

PHP01——php快速入门 之 使用phpstudy快速搭建PHP环境

PHP01——php快速入门 之 使用phpstudy快速搭建PHP环境 0. 前言1. 下载小皮面板1.1 下载phpstudy&#xff08;小皮面板&#xff09;1.2 启动、简单访问1.2.1 启动Apache1.2.2 访问1.2.3 访问自定义文件或页面 2. 创建网站2.1 创建网站2.2 可能遇到的问题2.2.1 hosts权限问题&am…

PTA(题目集一 题目 代码 C++ 注解)

目录 题目一&#xff1a; 代码&#xff1a; 题目二&#xff1a; 代码&#xff1a; 题目三&#xff1a; 代码&#xff1a; 题目四&#xff1a; 代码&#xff1a; 题目五&#xff1a; 代码&#xff1a; 题目六&#xff1a; 代码&#xff1a; 题目七&#xff1a; 代…

十五届web模拟题整理

模拟赛一期 1.动态的Tab栏 请在 style.css 文件中补全代码。 当用户向下滚动的高度没有超过标题栏&#xff08;即 .heading 元素&#xff09;的高度时&#xff0c;保持 Tab 栏在其原有的位置。当滚动高度超过标题栏的高度时&#xff0c;固定显示 Tab 栏在网页顶部。 /* TODO…

微服务项目实战-黑马头条(一):环境搭建 + APP登录功能【前端静态资源+nginx反向代理+网关+过滤器】

文章目录 一、搭建nacos二、初始工程的搭建2.1 环境准备2.2主体结构 三、APP登录3.1 需求分析3.2 表结构分析3.3 接口定义3.4 功能实现 四、接口工具postman、swagger、knife4j4.1 postman4.2 swagger4.3 knife4j 五、网关5.1 网关搭建5.2 全局过滤器实现jwt校验 六、前端集成6…

解决PyCharm更新到2024.1版本后不能运行项目的问题

先来看看这个问题的表现吧。 1、运行和调试按钮是灰色的&#xff0c;并且显示编辑器中的文件不可运行&#xff0c;代码也是灰色的&#xff0c;还有我们的python文件的图标和文本文件的图标一样。 当然右键也是没有运行、调试选项。 2、无法创建新的项目和py文件&#xff0c;能…

【静态分析】静态分析笔记01 - Introduction

参考&#xff1a; BV1zE411s77Z [南京大学]-[软件分析]课程学习笔记(一)-introduction_南京大学软件分析笔记-CSDN博客 ------------------------------------------------------------------------------------------------------ 1. program language and static analysis…

动态规划(背包问题)

一:动态规划概述: 动态规划实际上是一种将原本的 大 方面的问题转化为许许多多的 小方面 的一种应用, 在一定程度上避免数据的重复, 并且能够将数据以自己希望的方式进行存储, 用来解决多阶段的数学问题, 从而提高算法的效率 在算法当中, 动态规划主要包括有: 递推, 线性DP 记忆…

ssm040安徽新华学院实验中心管理系统的设计与实现+jsp

实验中心管理系统 摘 要 本安徽新华学院实验中心管理系统的设计目标是实现安徽新华学院实验中心的信息化管理&#xff0c;提高管理效率&#xff0c;使得安徽新华学院实验中心管理工作规范化、科学化、高效化。 本文重点阐述了安徽新华学院实验中心管理系统的开发过程&#x…

ssm044基于java和mysql的多角色学生管理系统+jsp

学生管理系统设计与实现 摘 要 现代经济快节奏发展以及不断完善升级的信息化技术&#xff0c;让传统数据信息的管理升级为软件存储&#xff0c;归纳&#xff0c;集中处理数据信息的管理方式。本学生管理系统就是在这样的大环境下诞生&#xff0c;其可以帮助管理者在短时间内处…

分享一下项目中遇到的排序失效问题

今天把原来的一个查询接口的业务代码进行了优化&#xff0c;减少了十几行冗余的代码。 原来的代码 ChongwuServiceImpl.java /*** author heyunlin* version 1.0*/ Slf4j Service public class ChongwuServiceImpl implements ChongwuService {Overridepublic JsonResult<…

【Algorithms 4】算法(第4版)学习笔记 24 - 5.5 数据压缩

文章目录 前言参考目录学习笔记1&#xff1a;介绍2&#xff1a;游程编码 run-length encoding2.1&#xff1a;介绍2.2&#xff1a;Java 实现3&#xff1a;霍夫曼压缩 Huffman compression3.1&#xff1a;变长前缀码 variable-length codes3.1.1&#xff1a;介绍3.1.2&#xff1…

基于ssm餐饮掌上设备点餐系统论文

摘要 随着信息技术在管理上越来越深入而广泛的应用&#xff0c;管理信息系统的实施在技术上已逐步成熟。本文介绍了餐饮掌上设备点餐系统的开发全过程。通过分析餐饮掌上设备点餐系统管理的不足&#xff0c;创建了一个计算机管理餐饮掌上设备点餐系统的方案。文章介绍了餐饮掌…

OpenHarmony编译构建系统

这篇来聊聊OpenHarmony的编译构建&#xff0c;经过前面的实践&#xff0c;再来看编译构建。 编译构建概述 在官网中提到了&#xff0c;OpenHarmony编译子系统是以GN和Ninja构建为基座&#xff0c;对构建和配置粒度进行部件化抽象、对内建模块进行功能增强、对业务模块进行功能…

代码随想录第38天| 509. 斐波那契数 70. 爬楼梯

理论基础 刷题大纲&#xff1a; 动态规划5步曲&#xff1a; 1、确定dp数组以及下标的含义 2、确定递推公式 3、dp数组如何初始化 4、确定遍历顺序 5、举例推导dp数组 509. 斐波那契数 509. 斐波那契数 - 力扣&#xff08;LeetCode&#xff09; 代码随想录 (programmercarl.co…

数据结构-----枚举、泛型进阶(通配符?)

文章目录 枚举1 背景及定义2 使用3 枚举优点缺点4 枚举和反射4.1 枚举是否可以通过反射&#xff0c;拿到实例对象呢&#xff1f; 5 总结 泛型进阶1 通配符 ?1.1 通配符解决什么问题1.2 通配符上界1.3 通配符下界 枚举 1 背景及定义 枚举是在JDK1.5以后引入的。主要用途是&am…

RAID磁盘阵列

一.raid简介 独立硬盘冗余阵列&#xff0c;旧称廉价磁盘冗余阵列&#xff0c;简称磁盘阵列。利用虚拟化存储技术把多个硬盘组合起来&#xff0c;成为一个或多个硬盘阵列组&#xff0c;目的为提升性能或数据冗余&#xff0c;或是两者同时提升。RAID把多个硬盘组合成为一个逻辑硬…