CPO-CNN-LSTM-Attention、CNN-LSTM-Attention、CPO-CNN-LSTM、CNN-LSTM四模型对比多变量时序预测
目录
- CPO-CNN-LSTM-Attention、CNN-LSTM-Attention、CPO-CNN-LSTM、CNN-LSTM四模型对比多变量时序预测
- 预测效果
- 基本介绍
- 程序设计
- 参考资料
预测效果
基本介绍
时序预测任务中实现CPO-CNN-LSTM-Attention、CNN-LSTM-Attention、CPO-CNN-LSTM、CNN-LSTM这四个模型,并对比它们的性能,我们需要先构建每个模型,然后使用相同的数据集进行训练,并评估它们的预测结果。CPO优化参数为:隐藏层节点数,学习率,正则化系数
CPO作为24年新算法,冠豪猪优化器(Crested Porcupine Optimizer,CPO)。该成果于2024年1月发表在中科院1区SCI期刊Knowledge-Based Systems上。在构建CNN-LSTM-Attention模型时,我们需要结合卷积神经网络(CNN)、长短期记忆网络(LSTM)和注意力机制(Attention)的优点。CNN通常用于特征提取,特别是在处理具有局部相关性的数据时表现优异,如图像数据或时间序列数据的局部模式。LSTM则擅长捕捉长期依赖关系,这对于时间序列预测等任务至关重要。注意力机制则能够动态地调整不同时间步的输入对输出的影响,从而提高模型的预测精度。
运行环境要求MATLAB版本为2023b及其以上
评价指标包括:R2、MAE、MSE、RPD、RMSE等,图很多
代码中文注释清晰,质量极高,赠送测试数据集,可以直接运行源程序。替换你的数据即可用 适合新手小白
程序设计
- 完整代码私信回复CPO-CNN-LSTM-Attention、CNN-LSTM-Attention、CPO-CNN-LSTM、CNN-LSTM四模型对比多变量时序预测。
% 训练集和测试集划分
outdim = 1; % 最后一列为输出
num_size = 0.7; % 训练集占数据集比例
num_train_s = round(num_size * num_samples); % 训练集样本个数
f_ = size(res, 2) - outdim; % 输入特征维度CNN-LSTM模型:
训练集 RMSE:0.25474, 测试集 RMSE:0.25827
训练集 MSE:0.064893, 测试集 MSE:0.066704
训练集 R²:0.99039, 测试集 R²:0.9877
训练集 MAE:0.20892, 测试集 MAE:0.21366
训练集 MAPE:3.1009%, 测试集 MAPE:3.1704%
CPO-CNN-LSTM模型:
训练集 RMSE:0.17448, 测试集 RMSE:0.17082
训练集 MSE:0.030444, 测试集 MSE:0.029181
训练集 R²:0.99549, 测试集 R²:0.99462
训练集 MAE:0.13696, 测试集 MAE:0.13815
训练集 MAPE:1.9241%, 测试集 MAPE:1.9952%
CNN-LSTM-Attention模型:
训练集 RMSE:0.27247, 测试集 RMSE:0.28207
训练集 MSE:0.074238, 测试集 MSE:0.079564
训练集 R²:0.98901, 测试集 R²:0.98533
训练集 MAE:0.22259, 测试集 MAE:0.23804
训练集 MAPE:3.2976%, 测试集 MAPE:3.4828%
CPO-CNN-LSTM-Attention模型:
训练集 RMSE:0.27247, 测试集 RMSE:0.10074
训练集 MSE:0.074238, 测试集 MSE:0.010149
训练集 R²:0.98901, 测试集 R²:0.99813
训练集 MAE:0.22259, 测试集 MAE:0.077405
训练集 MAPE:3.2976%, 测试集 MAPE:1.0496%
Model | MAE | MAPE | MSE | RMSE | R²
------------------------------------------------------------------------------------------
CNN-LSTM | 0.2137 | 3.1704 | 0.0667 | 0.2583 | 0.9877
CPO-CNN-LSTM | 0.1382 | 1.9952 | 0.0292 | 0.1708 | 0.9946
CNN-LSTM-Attention | 0.2380 | 3.4828 | 0.0796 | 0.2821 | 0.9853
CPO-CNN-LSTM-Attention | 0.0774 | 1.0496 | 0.0101 | 0.1007 | 0.9981
------------------------------------------------------------------------------------------
参考资料
[1] https://blog.csdn.net/kjm13182345320/article/details/128577926?spm=1001.2014.3001.5501
[2] https://blog.csdn.net/kjm13182345320/article/details/128573597?spm=1001.2014.3001.5501