您的位置:首页 > 财经 > 产业 > 东莞建设网东莞市住房和城乡建设_上海建设咨询网_高清网站推广免费下载_陕西网站制作

东莞建设网东莞市住房和城乡建设_上海建设咨询网_高清网站推广免费下载_陕西网站制作

2024/12/22 13:42:04 来源:https://blog.csdn.net/kjm13182345320/article/details/144411856  浏览:    关键词:东莞建设网东莞市住房和城乡建设_上海建设咨询网_高清网站推广免费下载_陕西网站制作
东莞建设网东莞市住房和城乡建设_上海建设咨询网_高清网站推广免费下载_陕西网站制作

CPO-CNN-LSTM-Attention、CNN-LSTM-Attention、CPO-CNN-LSTM、CNN-LSTM四模型对比多变量时序预测

目录

    • CPO-CNN-LSTM-Attention、CNN-LSTM-Attention、CPO-CNN-LSTM、CNN-LSTM四模型对比多变量时序预测
      • 预测效果
      • 基本介绍
      • 程序设计
      • 参考资料

预测效果

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

基本介绍

时序预测任务中实现CPO-CNN-LSTM-Attention、CNN-LSTM-Attention、CPO-CNN-LSTM、CNN-LSTM这四个模型,并对比它们的性能,我们需要先构建每个模型,然后使用相同的数据集进行训练,并评估它们的预测结果。CPO优化参数为:隐藏层节点数,学习率,正则化系数
CPO作为24年新算法,冠豪猪优化器(Crested Porcupine Optimizer,CPO)。该成果于2024年1月发表在中科院1区SCI期刊Knowledge-Based Systems上。在构建CNN-LSTM-Attention模型时,我们需要结合卷积神经网络(CNN)、长短期记忆网络(LSTM)和注意力机制(Attention)的优点。CNN通常用于特征提取,特别是在处理具有局部相关性的数据时表现优异,如图像数据或时间序列数据的局部模式。LSTM则擅长捕捉长期依赖关系,这对于时间序列预测等任务至关重要。注意力机制则能够动态地调整不同时间步的输入对输出的影响,从而提高模型的预测精度。
运行环境要求MATLAB版本为2023b及其以上
评价指标包括:R2、MAE、MSE、RPD、RMSE等,图很多
代码中文注释清晰,质量极高,赠送测试数据集,可以直接运行源程序。替换你的数据即可用 适合新手小白

程序设计

  • 完整代码私信回复CPO-CNN-LSTM-Attention、CNN-LSTM-Attention、CPO-CNN-LSTM、CNN-LSTM四模型对比多变量时序预测
% 训练集和测试集划分
outdim = 1;                                  % 最后一列为输出
num_size = 0.7;                              % 训练集占数据集比例
num_train_s = round(num_size * num_samples); % 训练集样本个数
f_ = size(res, 2) - outdim;                  % 输入特征维度CNN-LSTM模型:
训练集 RMSE:0.25474, 测试集 RMSE:0.25827
训练集 MSE:0.064893, 测试集 MSE:0.066704
训练集 R²:0.99039, 测试集 R²:0.9877
训练集 MAE:0.20892, 测试集 MAE:0.21366
训练集 MAPE:3.1009%, 测试集 MAPE:3.1704%
CPO-CNN-LSTM模型:
训练集 RMSE:0.17448, 测试集 RMSE:0.17082
训练集 MSE:0.030444, 测试集 MSE:0.029181
训练集 R²:0.99549, 测试集 R²:0.99462
训练集 MAE:0.13696, 测试集 MAE:0.13815
训练集 MAPE:1.9241%, 测试集 MAPE:1.9952%
CNN-LSTM-Attention模型:
训练集 RMSE:0.27247, 测试集 RMSE:0.28207
训练集 MSE:0.074238, 测试集 MSE:0.079564
训练集 R²:0.98901, 测试集 R²:0.98533
训练集 MAE:0.22259, 测试集 MAE:0.23804
训练集 MAPE:3.2976%, 测试集 MAPE:3.4828%
CPO-CNN-LSTM-Attention模型:
训练集 RMSE:0.27247, 测试集 RMSE:0.10074
训练集 MSE:0.074238, 测试集 MSE:0.010149
训练集 R²:0.98901, 测试集 R²:0.99813
训练集 MAE:0.22259, 测试集 MAE:0.077405
训练集 MAPE:3.2976%, 测试集 MAPE:1.0496%
Model                     | MAE        | MAPE       | MSE        | RMSE       |------------------------------------------------------------------------------------------
CNN-LSTM                  | 0.2137     | 3.1704     | 0.0667     | 0.2583     | 0.9877    
CPO-CNN-LSTM              | 0.1382     | 1.9952     | 0.0292     | 0.1708     | 0.9946    
CNN-LSTM-Attention        | 0.2380     | 3.4828     | 0.0796     | 0.2821     | 0.9853    
CPO-CNN-LSTM-Attention    | 0.0774     | 1.0496     | 0.0101     | 0.1007     | 0.9981    
------------------------------------------------------------------------------------------

参考资料

[1] https://blog.csdn.net/kjm13182345320/article/details/128577926?spm=1001.2014.3001.5501
[2] https://blog.csdn.net/kjm13182345320/article/details/128573597?spm=1001.2014.3001.5501

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com