PyTorch搭建LSTM实现时间序列预测(负荷预测)

目录

  • I. 前言
  • II. 数据处理
  • III. LSTM模型
  • IV. 训练
  • V. 测试
  • VI. 源码及数据

I. 前言

在上一篇文章深入理解PyTorch中LSTM的输入和输出(从input输入到Linear输出)中,我详细地解释了如何利用PyTorch来搭建一个LSTM模型,本篇文章的主要目的是搭建一个LSTM模型用于时间序列预测。

系列文章:

  1. 深入理解PyTorch中LSTM的输入和输出(从input输入到Linear输出)
  2. PyTorch搭建LSTM实现时间序列预测(负荷预测)
  3. PyTorch中利用LSTMCell搭建多层LSTM实现时间序列预测
  4. PyTorch搭建LSTM实现多变量时间序列预测(负荷预测)
  5. PyTorch搭建双向LSTM实现时间序列预测(负荷预测)
  6. PyTorch搭建LSTM实现多变量多步长时间序列预测(一):直接多输出
  7. PyTorch搭建LSTM实现多变量多步长时间序列预测(二):单步滚动预测
  8. PyTorch搭建LSTM实现多变量多步长时间序列预测(三):多模型单步预测
  9. PyTorch搭建LSTM实现多变量多步长时间序列预测(四):多模型滚动预测
  10. PyTorch搭建LSTM实现多变量多步长时间序列预测(五):seq2seq
  11. PyTorch中实现LSTM多步长时间序列预测的几种方法总结(负荷预测)
  12. PyTorch-LSTM时间序列预测中如何预测真正的未来值
  13. PyTorch搭建LSTM实现多变量输入多变量输出时间序列预测(多任务学习)
  14. PyTorch搭建ANN实现时间序列预测(风速预测)
  15. PyTorch搭建CNN实现时间序列预测(风速预测)
  16. PyTorch搭建CNN-LSTM混合模型实现多变量多步长时间序列预测(负荷预测)
  17. PyTorch搭建Transformer实现多变量多步长时间序列预测(负荷预测)
  18. PyTorch时间序列预测系列文章总结(代码使用方法)
  19. TensorFlow搭建LSTM实现时间序列预测(负荷预测)
  20. TensorFlow搭建LSTM实现多变量时间序列预测(负荷预测)
  21. TensorFlow搭建双向LSTM实现时间序列预测(负荷预测)
  22. TensorFlow搭建LSTM实现多变量多步长时间序列预测(一):直接多输出
  23. TensorFlow搭建LSTM实现多变量多步长时间序列预测(二):单步滚动预测
  24. TensorFlow搭建LSTM实现多变量多步长时间序列预测(三):多模型单步预测
  25. TensorFlow搭建LSTM实现多变量多步长时间序列预测(四):多模型滚动预测
  26. TensorFlow搭建LSTM实现多变量多步长时间序列预测(五):seq2seq
  27. TensorFlow搭建LSTM实现多变量输入多变量输出时间序列预测(多任务学习)
  28. TensorFlow搭建ANN实现时间序列预测(风速预测)
  29. TensorFlow搭建CNN实现时间序列预测(风速预测)
  30. TensorFlow搭建CNN-LSTM混合模型实现多变量多步长时间序列预测(负荷预测)
  31. PyG搭建图神经网络实现多变量输入多变量输出时间序列预测
  32. PyTorch搭建GNN-LSTM和LSTM-GNN模型实现多变量输入多变量输出时间序列预测
  33. PyG Temporal搭建STGCN实现多变量输入多变量输出时间序列预测
  34. 时序预测中Attention机制是否真的有效?盘点LSTM/RNN中24种Attention机制+效果对比

II. 数据处理

数据集为某个地区某段时间内的电力负荷数据,除了负荷以外,还包括温度、湿度等信息。

本篇文章暂时不考虑其它变量,只考虑用历史负荷来预测未来负荷。本文中,我们根据前24个时刻的负荷下一时刻的负荷。有关多变量预测请参考:PyTorch搭建LSTM实现多变量时间序列预测(负荷预测)。

def load_data(file_name):df = pd.read_csv('data/new_data/' + file_name, encoding='gbk')columns = df.columnsdf.fillna(df.mean(), inplace=True)return dfclass MyDataset(Dataset):def __init__(self, data):self.data = datadef __getitem__(self, item):return self.data[item]def __len__(self):return len(self.data)def nn_seq_us(B):print('data processing...')dataset = load_data()# splittrain = dataset[:int(len(dataset) * 0.6)]val = dataset[int(len(dataset) * 0.6):int(len(dataset) * 0.8)]test = dataset[int(len(dataset) * 0.8):len(dataset)]m, n = np.max(train[train.columns[1]]), np.min(train[train.columns[1]])def process(data, batch_size, shuffle):load = data[data.columns[1]]load = load.tolist()data = data.values.tolist()load = (load - n) / (m - n)seq = []for i in range(len(data) - 24):train_seq = []train_label = []for j in range(i, i + 24):x = [load[j]]train_seq.append(x)# for c in range(2, 8):#     train_seq.append(data[i + 24][c])train_label.append(load[i + 24])train_seq = torch.FloatTensor(train_seq)train_label = torch.FloatTensor(train_label).view(-1)seq.append((train_seq, train_label))# print(seq[-1])seq = MyDataset(seq)seq = DataLoader(dataset=seq, batch_size=batch_size, shuffle=shuffle, num_workers=0, drop_last=True)return seqDtr = process(train, B, True)Val = process(val, B, True)Dte = process(test, B, False)return Dtr, Val, Dte, m, n

上面代码用了DataLoader来对原始数据进行处理,最终得到了batch_size=B的数据集Dtr、Val以及Dte,Dtr为训练集,Val为验证集,Dte为测试集。

III. LSTM模型

这里采用了深入理解PyTorch中LSTM的输入和输出(从input输入到Linear输出)中的模型:

class LSTM(nn.Module):def __init__(self, input_size, hidden_size, num_layers, output_size, batch_size):super().__init__()self.input_size = input_sizeself.hidden_size = hidden_sizeself.num_layers = num_layersself.output_size = output_sizeself.num_directions = 1 # 单向LSTMself.batch_size = batch_sizeself.lstm = nn.LSTM(self.input_size, self.hidden_size, self.num_layers, batch_first=True)self.linear = nn.Linear(self.hidden_size, self.output_size)def forward(self, input_seq):batch_size, seq_len = input_seq.shape[0], input_seq.shape[1]h_0 = torch.randn(self.num_directions * self.num_layers, self.batch_size, self.hidden_size).to(device)c_0 = torch.randn(self.num_directions * self.num_layers, self.batch_size, self.hidden_size).to(device)# output(batch_size, seq_len, num_directions * hidden_size)output, _ = self.lstm(input_seq, (h_0, c_0)) # output(5, 30, 64)pred = self.linear(output)  # (5, 30, 1)pred = pred[:, -1, :]  # (5, 1)return pred

IV. 训练

def train(args, Dtr, Val, path):input_size, hidden_size, num_layers = args.input_size, args.hidden_size, args.num_layersoutput_size = args.output_sizeif args.bidirectional:model = BiLSTM(input_size, hidden_size, num_layers, output_size, batch_size=args.batch_size).to(device)else:model = LSTM(input_size, hidden_size, num_layers, output_size, batch_size=args.batch_size).to(device)loss_function = nn.MSELoss().to(device)if args.optimizer == 'adam':optimizer = torch.optim.Adam(model.parameters(), lr=args.lr,weight_decay=args.weight_decay)else:optimizer = torch.optim.SGD(model.parameters(), lr=args.lr,momentum=0.9, weight_decay=args.weight_decay)scheduler = StepLR(optimizer, step_size=args.step_size, gamma=args.gamma)# trainingmin_epochs = 10best_model = Nonemin_val_loss = 5for epoch in tqdm(range(args.epochs)):train_loss = []for (seq, label) in Dtr:seq = seq.to(device)label = label.to(device)y_pred = model(seq)loss = loss_function(y_pred, label)train_loss.append(loss.item())optimizer.zero_grad()loss.backward()optimizer.step()scheduler.step()# validationval_loss = get_val_loss(args, model, Val)if epoch > min_epochs and val_loss < min_val_loss:min_val_loss = val_lossbest_model = copy.deepcopy(model)print('epoch {:03d} train_loss {:.8f} val_loss {:.8f}'.format(epoch, np.mean(train_loss), val_loss))model.train()state = {'models': best_model.state_dict()}torch.save(state, path)

保存训练过程中在验证集上表现最好的模型。

V. 测试

def test(args, Dte, path, m, n):pred = []y = []print('loading models...')input_size, hidden_size, num_layers = args.input_size, args.hidden_size, args.num_layersoutput_size = args.output_sizeif args.bidirectional:model = BiLSTM(input_size, hidden_size, num_layers, output_size, batch_size=args.batch_size).to(device)else:model = LSTM(input_size, hidden_size, num_layers, output_size, batch_size=args.batch_size).to(device)# models = LSTM(input_size, hidden_size, num_layers, output_size, batch_size=args.batch_size).to(device)model.load_state_dict(torch.load(path)['models'])model.eval()print('predicting...')for (seq, target) in tqdm(Dte):target = list(chain.from_iterable(target.data.tolist()))y.extend(target)seq = seq.to(device)with torch.no_grad():y_pred = model(seq)y_pred = list(chain.from_iterable(y_pred.data.tolist()))pred.extend(y_pred)y, pred = np.array(y), np.array(pred)y = (m - n) * y + npred = (m - n) * pred + nprint('mape:', get_mape(y, pred))# plotx = [i for i in range(1, 151)]x_smooth = np.linspace(np.min(x), np.max(x), 900)y_smooth = make_interp_spline(x, y[150:300])(x_smooth)plt.plot(x_smooth, y_smooth, c='green', marker='*', ms=1, alpha=0.75, label='true')y_smooth = make_interp_spline(x, pred[150:300])(x_smooth)plt.plot(x_smooth, y_smooth, c='red', marker='o', ms=1, alpha=0.75, label='pred')plt.grid(axis='y')plt.legend()plt.show()

简单训练30轮,MAPE为5.77%:
在这里插入图片描述

VI. 源码及数据

暂无。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/33572.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

TensorFlow搭建LSTM实现时间序列预测(负荷预测)

目录 I. 前言II. 数据处理III. 模型IV. 训练/测试V. 源码及数据 I. 前言 前面已经写过不少时间序列预测的文章&#xff1a; 深入理解PyTorch中LSTM的输入和输出&#xff08;从input输入到Linear输出&#xff09;PyTorch搭建LSTM实现时间序列预测&#xff08;负荷预测&#xf…

TensorFlow搭建LSTM实现多变量时间序列预测(负荷预测)

目录 I. 前言II. 数据处理III. LSTM模型IV. 训练/测试V. 源码及数据 I. 前言 在前面的一篇文章TensorFlow搭建LSTM实现时间序列预测&#xff08;负荷预测&#xff09;中&#xff0c;我们利用LSTM实现了负荷预测&#xff0c;但我们只是简单利用负荷预测负荷&#xff0c;并没有利…

深度学习--Matlab使用LSTM长短期记忆网络对负荷进行预测

一、LSTM描述 长短期记忆网络&#xff08;LSTM&#xff0c;Long Short-Term Memory&#xff09;是一种时间循环神经网络&#xff0c;是为了解决一般的RNN&#xff08;循环神经网络&#xff09;存在的长期依赖问题而专门设计出来的&#xff0c;所有的RNN都具有一种重复神经网络…

电力负荷预测数据集

电力负荷预测&#xff0c;用电量以及温度、湿度、风速、降雨等数据&#xff0c;每15min一组&#xff0c;共计13个月 下载链接&#xff1a;https://download.csdn.net/download/ncusz/82632972

Python画用电客户日负荷曲线图

Python版本&#xff1a;Python3.6.2 一、日负荷曲线 摘自百度百科&#xff0c;日负荷曲线是描述一日内负荷随时间变化的曲线。 二、数据处理 数据:申请的爱尔兰开源用户用电数据&#xff0c;txt格式&#xff0c;一个文件将近400M&#xff0c;用写字板打开&#xff0c;很卡。 截…

基于改进粒子群IPSO与LSTM的短期电力负荷预测

短期电力负荷预测是电力系统安全调度、经济运行的重要依据 , 随着电力系统的市场化 , 负荷预测的精度直接影响到电力系统运行的可靠性、经济性和供电质量。LSTM 为短期电力负荷预测提供了一个新的研究方向。本文将LSTM用于短期电力负荷预测 , 提出基于LSTM 的短期电力负荷预测模…

电力负荷预测三篇综述总结

三篇综述链接&#xff1a; 深度学习方法在负荷预测中的应用综述&#xff08;论文阅读&#xff09;光伏发电量和用电量的概率预测研究综述&#xff08;1&#xff09;光伏发电量和用电量的概率预测研究综述&#xff08;2&#xff09;光伏发电量和用电量的概率预测研究综述&#…

记录一次生产服务器CPU400%满负荷处理过程

记录一次生产服务器CPU400%满负荷处理过程 文章目录 记录一次生产服务器CPU400%满负荷处理过程步骤猜测解决方法反思总结 步骤 top命令 31779进程 占 CPU 361% &#xff0c;通过最后的COMMAND可以判断是java进程 通过jvm的 jsp -l命令 查询 31779进程 是 zipkin-server-2.…

Python 多进程下开多线程满负荷工作

最开始只是有这样一个想法,后来想实现一下 本文只是写一个例子,实现了开多个进程,每个进程下面开多线程,每个进程执行单独一个任务,并行执行,进程下的多线程执行任务,并发执行 import multiprocessing import threading import timedef m_test():for i in range(25):tthreadin…

磁盘IO满负荷性能分析

磁盘IO满负荷性能分析 2011-06-26 22:30:59| 分类&#xff1a;linux优化 |举报|字号 订阅 磁盘IO满负荷性能分析&#xff08;一&#xff09; 有个项目最近发现在执行一些oracle数据库的数据补入的sql语句时非常慢&#xff0c;经查发现来自存储的硬盘io会冲到100busy devic…

【板卡调试】测试篇 满负荷 网口测试篇

1、满负荷测试 对于window环境下载&#xff0c;下载使用7.zip的软件&#xff0c;进入工具中选择基准测试&#xff0c;即可。 原理&#xff1a;根据选择的线程核数&#xff0c;进行多线程式的解压缩操作&#xff0c;进而实现CPU满负荷运载。 工具下载链接&#xff1a;https:/…

Android Studio实现记单词App,背完四六级一次过~

项目目录 一、项目概述二、主要技术三、开发环境四、详细设计1、数据库2、单词详情3、搜索单词 五、运行演示六、源码获取 一、项目概述 本系统包含高考、四级、六级、托福和雅思词汇五个章节。每个章节分为多个单元&#xff0c;每个单元又包含上百个词汇。可以在单元列表查询…

英语背单词秘籍

注:文章已于2021年2月4日更新。 文章目录 1. 大多数人背单词的现状2. 为什么不推荐使用现成的单词书3. 费曼学习法来帮助背单词1. 大多数人背单词的现状 背单词是大型考试中极为基础但却至关重要的一步。但很多同学都在此步中就踩了坑,比如买了一本厚厚的单词书开始背起,如…

安卓android记单词软件

课程设计项目总结,基于安卓的记单词软件,分为前端和服务器端,前端使用安卓,后端使用SSM框架。 具体技术栈为&#xff1a; 前端&#xff1a;android、okhttp、sqlite、litepal等 后端&#xff1a;SSM&#xff08;SpringMVCSpringMybatis&#xff09;、mysql数据库、tomcat服务器…

Python背单词记单词小程序,可自定义词库,支持多种记忆模式,根据词义拼写、选择单词,根据词意选择单词

Python背单词记单词小程序&#xff0c;可自定义词库&#xff0c;支持多种记忆模式&#xff0c;根据词义拼写、选择单词&#xff0c;根据词意选择单词&#xff0c;可乱序抽查&#xff0c;可对错题进行反复抽查 完整程序源代码下载&#xff1a;Python背单词记单词小程序 词库生成…

为了背单词,我花了两天写了一款背单词小程序

前言 “要是考试不考英语就好了” 哎&#xff0c;提起英语&#xff0c;都是伤心事。有时候严重怀疑自己不是一块学习英语的料。单词背了忘&#xff0c;忘了背&#xff0c;背了又忘。考试之前看啥单词都会&#xff0c;一上考场&#xff1a;这单词啥意思&#xff1f; …

大量背单词有用吗?

前言 从三年级开始接触英语&#xff0c;到今为止已经14年了&#xff0c;可是自己的英语水平虽不至于茫然无知&#xff0c;可是真正做到和老外进行交流&#xff0c;还是有一定的困难的。不仅是老外&#xff0c;和小伙伴进行topic的时候&#xff0c;也有卡壳的时候&#xff0c;类…

单词背记系统

题目 B4&#xff1a;基于关键词的文本排序检索系统 一、 课题内容和要求 题目 B4&#xff1a; &#xff08;一&#xff09;课题内容 “背单词—个性化背词”是背诵英语单词的软件。用户可以根据自己的需求 导入需背诵的词库&#xff0c;并可以编辑自己的词库。背单词时有两种…

背单词超实用的微信小程序来了

如果你还找不到快速背单词的工具&#xff0c;查询单词最便捷的工具&#xff0c;那你得赶紧了&#xff0c;自己独自开发到上线得微信小程序来了。

分享一款好用的电脑背单词软件

推荐一下这款单词风暴&#xff0c;虽然看起来很老了&#xff0c;但是好用&#xff0c;功能多。 下载地址 单词风暴免费版下载_官方免费版_单词风暴官方网站 (wordstorming.com) 下面是主界面 需要登陆ID:285804755-QGJTE-HCUMQ 下面是词库 不过我最喜欢的功能是这里面可以…