基于self-attention-TCN时间序列预测Python程序
特色:1、单变量,多变量输入,自由切换
2、单步预测,多步预测,自动切换
3、基于Pytorch架构
4、多个评估指标(MAE,MSE,R2,MAPE等)
5、数据从excel文件中读取,更换简单
6、标准框架,数据分为训练集、验证集,测试集
全部完整的代码,保证可以运行的代码看这里。
http://t.csdn.cn/obJlChttp://t.csdn.cn/obJlC
!!!如果第一个链接打不开,请点击个人首页,查看我的个人介绍。
(搜索到的产品后,点头像,就能看到全部代码)
黑科技小土豆的博客_CSDN博客-深度学习,32单片机领域博主
TCN-attention模型是一种结合了时间卷积网络(TCN)和注意力机制的神经网络模型,常用于序列数据建模任务中。
在TCN-attention模型中,时间卷积网络处理输入序列数据,通过多层卷积层和残差连接来提取序列数据的特征。而注意力机制则用于自动地学习序列数据中的相关性和权重,来进一步提高模型的预测精度。
TCN-attention模型通常是由多个子模块嵌套组成的,其中每个子模块由一个TCN层和一个注意力层组成。TCN层提取输入序列的时序特征,而注意力层则对这些特征加权求和,以达到更好的信息表示和预测。
总体来说,TCN-attention模型是一种灵活、高效且准确的序列建模方法,具有广泛的应用前景,例如语音识别、自然语言处理和时间序列预测等领域。
train_ratio = 0.7 # 训练集比例
val_ratio = 0.15 # 验证集比例
test_ratio = 0.15 # 测试集比例
input_length = 48 # 输入数据长度,多步预测建议长,单步预测建议短
output_length = 1 # 输出数据长度,1为单步预测,1以上为多步预测 请注意,随着输出长度的增长,模型训练时间呈指数级增长
learning_rate = 0.1 # 学习率
estimators = 100 # 迭代次数
max_depth = 5 # 树模型的最大深度
interval_length = 2000 # 预测数据长度,最长不可以超过总数据条数
scalar = True # 是否使用归一化
scalar_contain_labels = True # 归一化过程是否包含目标值的历史数据
target_value = 'load' # 需要预测的列名,可以在excel中查看