舰船科学技术  2024, Vol. 46 Issue (21): 33-39    DOI: 10.3404/j.issn.1672-7649.2024.21.006   PDF    
基于MAF-GWO-LSTM算法的海浪有义波高预测模型
陈恒轩1, 张雷1,2, 杜传顺1, 张佳宁1     
1. 大连海事大学 船舶与海洋工程学院,辽宁 大连 116026;
2. 大连理工大学 海岸和近海工程国家重点实验室,辽宁 大连 116024
摘要: 由于复杂海况随机海浪对船舶航行及人命安全造成威胁,通过构建海浪波高预测模型实现高海况海浪预警对提升航行安全具有重要意义。针对海浪波高预测问题,本文提出一种MAF-GWO-LSTM预测模型。首先利用滑动平均滤波器(Moving Average Filter, MAF)对实测海浪数据进行处理得到有效波高的光滑趋势序列,作为预测模型的输入训练集;再选用长短时记忆神经网络LSTM作为预测浪模型,依据灰狼优化算法(Grey Wolf Optimization, GWO)对滑动窗口MA及神经网络训练过程中的参数进行自适应寻优,并以南海实测有效波高数据进行验证。研究结果表明,采用MAF滤波有利于提取海浪有效波高特征,再通过GWO-LSTM预测模型优化神经网络参数,最优参数下波高预报精度达到R2=0.9910。论文研究可为高海况下海浪有效波高预报预警提供一种有效手段。
关键词: 滑动平均滤波器     灰狼算法     海浪波高预测     长短时记忆神经网络    
The significant wave height prediction model based on MAF-GWO-LSTM algorithm
CHEN Hengxuan1, ZHANG lei1,2, DU Chuanshun1, ZHANG Jianing1     
1. School of Naval Architecture and Ocean Engineering , Dalian Maritime University, Dalian 116026, China;
2. State Key Laboratory of Coastal and Offshore Engineering, Dalian University of Technology, Dalian 116024, China
Abstract: As random waves in complex sea conditions pose a threat to ship navigation and human life safety, it is of great significance to build a wave height prediction model to realize high sea state wave warning for improving navigation safety. Aiming at the problem of wave height prediction, a prediction model of MAF-GWO-LSTM is proposed in this paper. Firstly, the Moving Average Filter (MAF) is used to process the measured wave data to obtain the smooth trend sequence of the significant wave height, which is used as the input training set of the prediction model. Then, LSTM was selected as the wave prediction model. Grey Wolf Optimization (GWO) was used to optimize the parameters of the sliding window MA and the neural network in the training process, and the data of significant wave height measured in the South China Sea was used to verify the results. The results show that MAF filtering is conducive to extracting significant wave height features of ocean waves, and then MAF-GWO-LSTM prediction model is used to optimize the neural network parameters. Under the optimal parameters, the prediction accuracy of wave height reaches R2=0.9910. This paper provides an effective method for wave height prediction and early warning under high sea conditions.
Key words: moving average filter     grey wolf algorithm     ocean wave height prediction     LSTM neural network    
0 引 言

随着海洋开发以及海洋运输的不断发展,复杂的海洋环境对船舶的航行产生了严重影响,尤其是视觉观测到有效波高达到2 m时,可能会危害船舶上的人员安全和造成经济损失。因此,能够准时、准确且有效地预测海浪波高和描述海浪的特征不可或缺。截至目前,来自世界各地的研究学者和专家都试图建立不同的预测模型,基于以神经网络为代表的深度学习[1]模型最为常见:郑小罗等[2]提出了利用周期图法提取近岸浪高数据集中的4个主要周期,并基于主要周期进行多次STL分解,将复杂的原始浪高序列分解为周期项、趋势项和余项;然后利用LSTM结合两级融合策略,搭建近岸浪高预测网络;通过对比,验证了所提方法在近岸浪高序列预测中具有较好的实用性和更低的预测误差;何盛琪等[3]使用LSTM网络对未来12 h和24 h的浪高进行预测,并使用色彩图对浪高预测值进行可视化展示;李其超[4]基于Xception模块,搭建深度卷积神经网络进行浪高特征提取,将海浪视频中时空特征以及不同层次的浪高特征进行融合,最后利用通道空间双注意力模块对融合后的特征进行权重调整并使用全连接层输出预测浪高值;卢鹏等[5]提出了一种基于混合模型的海浪高度预,通过VMD预处理、LSTM预测和重构对海浪高度进行预测,结果表明,混合模型将海浪高度数据分解为更平稳和更规则的子序列,可以更好地区分数据之间的重要程度,并能携带更多信息的数据且预测效果好具备一定的鲁棒性。

然而,上述预测模型没有考虑参数寻优下的最优参数预报,燕宇铖等[6]将改进灰狼算法与长短时记忆网络相结合,利用GWO优化LSTM全连接层参数,建立GWO-LSTM复合模型预测光伏功率,具有较好收敛和避免局部最优解。龚德文等[7]使用灰狼优化算法(GWO)对支持向量回归(SVR)算法进行参数寻优,并将GWO-SVR算法和传统SVR算法及基于粒子群算法(PSO)的PSO-SVR浪高预测效果进行比较分析,结果表明,GWO-SVR能够对海浪高度进行有效预测,且有效提高GWO-SVR算法对海浪高度预测的精度。Domala等[8]使用经验模态分解在LSTM单步和多步有效波高预测中对1 h、6 h、12 h和24 h间隔进行单步和多步预测。孟子非等[9]利用长短期记忆(LSTM)方法实现了对海浪列的长期精确预测。基于上述文献所考虑的情况,本文使用滑动平均滤波方法处理输入数据,在执行预测任务前先使用处理后的原生数据趋势项特征序列,并在LSTM神经网络的基础上,接入灰狼优化算法执行神经网络参数的自适应寻优,最终提出MAF-GWO-LSTM的混合预测模型。在此基础上,模型的复杂度得到了论证,并通过对南海海域波高监测数据集的训练和测试对该波高混合预测模型进行验证。

1 MAF-GWO-LSTM神经网络模型 1.1 MAF滤波预处理模块

滑动平均滤波器[10](Moving Average Filter, MAF)是非平稳信号处理中常用的方法之一。它属于时域分析数据技术,主要用于平滑数据强调某些特征。基本原理是对于给定的数据点,滑动平均滤波器计算该点及其邻近点的平均值,并将结果作为滤波后的新值。对于每一个数据点,滤波器选择一个窗口,该窗口包含前后几个数据点,并计算它们的平均值。所使用的窗口大小通常是一个设计参数,其选择取决于需要平滑的数据特性。数学上,滑动平均可表示为:

$ y(t) = \frac{1}{M}\sum\limits_{n = 0}^{M - 1} {x(t - n)}。$ (1)

式中:y(t)为滤波后的信号值;x(t)为原始信号值;M为滤波窗口大小,即考虑的数据点数量。

基于上述算法流程,对用于浮标测得的海浪波高数据Hs,其工作原理是利用随波运动的浮体中加速度计,测量海水粒子沿重力方向的加速度经过二次积分得到波高。在南海波浪实验[11]中,从2020年10月1日0:03至10月31日11:03连续30天的浪高时程进行测量并使用Matlab编写脚本文件进行预处理,通过使用MAF算法首先对海浪的有效波高数据进行滤波,根据训练网络的RMSE(百分数)结果来选择滤波窗口M表1所示。

表 1 MAF滤波窗口M的均方根误差 Tab.1 Root mean square error of MAF filter window size M

可知,设置MAF算法的滤波窗口M=7时,均方根误差最小,最后选定滤波窗口等于7并分解有义波高数据为趋势项特征如图1所示。

图 1 有义波高数据 Fig. 1 Data of significant wave height

可以发现,经由MAF处理后,海浪有效波高的时间序列数据表征更为平稳,所反映的趋势性更强,另一方面,经过MAF滤波后的有效波高特征在LSTM神经网络基础上需要灰狼算法进行参数寻优。

1.2 LSTM神经网络

长短时记忆神经网络[12](Long-Short Term Memory Network, LSTM)基于循环神经网络(Recurrent Neural Network, RNN)发展而来,相比于后者,LSTM神经网络能够很好地解决梯度消失问题,进而对时序数据进行长序列尺度学习与预测,并在浪高预测领域已有应用案例。LSTM的主要结构包括输入门、遗忘门和输出门,以及一个细胞状态,LSTM神经网络单个神经元的结构如图2所示。

图 2 MAF-GWO-LSTM算法预测模型流程图 Fig. 2 Flow chart of prediction model of MAF-GWO-LSTM algorithm

以下是表示其状态的核心公式:

遗忘门

$ f(t)=\sigma \left({W}_{f}\cdot \left[h(t-1);x(t)\right]+{b}_{f}\right)。$ (2)

输入门

$ i(t)=\sigma \left({W}_{i}\cdot \left[h(t-1);x(t)\right]+{b}_{i}\right)。$ (3)

细胞状态的更新

$ \stackrel{\sim }{C}(t)=\mathrm{tanh}\left(Wc\cdot \left[h(t-1);x(t)\right]+{b}_{c}\right),$ (4)
$ C(t) = f(t) \times C(t - 1) + i(t) \times \mathop C\limits^ \sim (t) 。$ (5)

输出门与隐藏状态的更新

$ o(t)=\sigma \left({W}_{o}\cdot\left[h(t-1);x(t)\right]+{b}_{o}\right),$ (6)
$ h(t) = o(t) \times \tanh \left( {C(t)} \right)。$ (7)

式中:$ f\left(t\right)、i\left(t\right)、o\left(t\right)\text{} $$ C\left(t\right) $分别为时刻t的遗忘门、输入门、输出门和细胞状态;$ h(t-1)\text{} $为上一个时刻的隐藏状态,而$ x\left(t\right)\text{} $为时刻t的输入;Wb分别为权重矩阵和偏置项;σ为Sigmoid函数;tanh为双曲正切函数;[; ]为向量的拼接;通过这种门控机制,LSTM可以灵活地决定何时忘记过去的信息、何时更新细胞状态以及何时输出隐藏状态,从而实现对海浪波高数据的预测。

1.3 GWO算法与GWO-LSTM模型

若采用随迭代次数改变学习率的训练策略,LSTM神经网络预测效能主要受隐含层节点数H、迭代次数N、初始学习率lr、学习率缩减因子decay以及缩减段长phase五种超参数影响,即这5种参数及滑动窗口MA一共6种参数,而参数组合问题属于超参数搜索问题,可以借助启发式算法实现。本文选用灰狼优化算法(Grey Wolf Optimization, GWO)优化LSTM参数。是一种启发式优化算法,它受到了灰狼社会行为和层级结构的启发。灰狼算法[13]由Seyedali Mirjalili于2014年提出,旨在解决各种优化问题,包括连续型问题和离散型问题。与其他优化算法相比,灰狼算法具有一些独特的特性和优势。

灰狼算法的核心思想源于灰狼社会中的等级结构,包括“alpha”(领袖)、“beta”(副领袖)、“delta”(受限制的灰狼)。这种等级结构对应了优化问题中的最优解候选。在搜索过程上,算法模拟了灰狼群体的捕猎行为,即在搜索空间中,每只灰狼代表一个解,它们根据自己的适应度值相互竞争和协作,以找到更好的解。灰狼通过调整其位置来迭代地改进解的质量。灰狼算法采用不同的搜索策略,包括追逐(追踪更好的解)、被追逐(靠近更好的解)和群聚(与其他灰狼协作)。这些策略使得该算法具有全局和局部搜索能力。灰狼算法2023年已经被谢景轩等[14]应用于海浪的有效波高预测,其使用灰狼优化算法构建的GWO-GMDH混合模型比单一模型的训练数据集指标均有所下降,也显示出了较高的精度和鲁棒性。本文与该文献的差别主要在于GWO考虑了长短时记忆神经网络预报模型的多参数同时优化问题。进一步地,灰狼优化算法也被应用在包括机器学习模型[15]、工程自适应优化[16]等不同领域中。它在全局优化问题中能够表现出良好的性能。

将LSTM神经网络隐含层节点数H、迭代次数N、初始学习率lr、学习率缩减因子decay以及缩减段长phase和滑动窗口MA视作待优化搜索项,绘制经MAF处理后的有效波高数据再通过灰狼算法优化LSTM模型参数流程图如图3所示。

图 3 训练中均方根误差与损失曲线 Fig. 3 RMSE and loss curve in training

模型运行过程需要以下步骤:

步骤1 使用MAF算法并选择滤波窗口M,对原始海浪有效波高数据进行滤波,得到主趋势特征。

步骤2 使用GWO算法优化LSTM参数: 需要事先为LSTM网络超参数和MA设置6种参数的搜索空间上下界与空间步长。

步骤3 LSTM网络构建与训练: 使用优化后的超参数,构建LSTM神经网络并进行训练。

步骤4 预测及计算RMSE: 利用经过优化的LSTM网络在划定验证集上进行预测,并基于预测结果计算其RMSE值。

步骤5 评估优化效果: 通过评估调整后的RMSE,判断优化的效果。

步骤6 决策判断: 如果优化结果达到最大迭代次数,且迭代过程中RMSE趋于稳定收敛则结束全流程;若不满足,则根据前述的RMSE值,进一步调整狼群个体位置(αβδ),继续依据RMSE为标准进行超参数组合寻优。

步骤7 输出优化后的结果: 最后,输出优化后的LSTM网络参数以及相应的RMSE值。

2 实验与仿真结果分析 2.1 算法复杂度分析

由于在线寻优以及边缘端部署的性能限制要求,对GWO-LSTM算法模型的时间复杂度与空间复杂度进行分析,需要考虑以下因素:1)输入维度:d;2)隐藏层维度(或者说隐藏状态的大小):h;3)序列长度:t。LSTM的每一个时间步都需要执行一系列的操作,具体为遗忘门、输入门、输出门和单元状态更新等操作。每个门都涉及到矩阵乘法、逐元素乘法和逐元素加法。考虑到矩阵乘法是占据计算资源的主要操作,每个时间步的时间复杂度主要由它决定。

对于每一个门,都有一个矩阵乘法操作涉及到大小为d$ \times $h的输入矩阵和大小为h$ \times $h的隐藏状态矩阵。因此,每个门的时间复杂度是$ O\left(d\times h+{h}^{2}\right) $,由于有4个这样的门,所以单个时间步的时间复杂度是$ O\left(4\left(d\times h+{h}^{2}\right)\right)=O\left(d\times h+{h}^{2}\right) $。考虑到序列的长度为t,整个LSTM的时间复杂度是$ O\left(t\left(d\times h+{h}^{2}\right)\right) $。LSTM的空间复杂度由权重矩阵和隐藏状态确定。对于权重矩阵,其与上述单个时间步的时间复杂度相同,而对于隐藏状态,在每一个时间步,LSTM都保存一个大小为h的隐藏状态。因此,整个序列的隐藏状态的空间复杂度是$ O(t\times h) $,综上,得出LSTM神经网络模型的总空间复杂度是$ O\left(d\times h+{h}^{2}+t\times h\right) $

灰狼算法的复杂度考虑以下参数:狼群种群大小为G;解的维度或问题的变量数为D,本文提出模型为6;算法的最大迭代次数为T;对于其时间复杂度,初始化种群阶段有$ O(G\times D) $,每次迭代计算适应度需要的$ O\left(G\right) $时间来计算所有灰狼的适应度,选择αβδ这3个最佳解需要$ O\left(G\right) $,每次迭代需要$ O(G\times D) $的时间来更新所有灰狼的位置。由于算法执行T次迭代,因此总时间复杂度为$ O(T\times (G\times D+2G\left)\right)=O(T\times G\times D) $。空间复杂度则涉及3个过程:存储种群为$ O(G\times D) $,存储3个最佳解为$ O(3\times D)=O\left(D\right) $,存储适应度值为$ O\left(G\right) $。总空间复杂度为$ O(G\times D+D+G)=O(G\times D) $

MAF过程考虑以下参数:数据序列的长度L,窗口大小W;对于数据序列中的每一个点,滑动平均滤波器都需要计算一个平均值。计算一个平均值涉及到的加法操作数量是W,所以单个点的计算复杂度是$ O\left(W\right) $,处理L个数据点则为$ O(L\times W) $。在空间复杂度上,存储原始数据序列为$ O\left(L\right) $,存储滑动窗口的数据$ O\left(W\right) $,存储输出序列$ O\left(L\right) $,所以总空间复杂度是$ O(L+W) $

综上所示,在单次迭代GWO-LSTM过程中,时间复杂度为$ O\left(t\times \left(d\times h+{h}^{2}\right)+T\times G\times D+L\times W\right) $,空间复杂度为$ O\left(d\times h+{h}^{2}+t\times h+G\times D+L+W\right) $,在总迭代轮数为N的情况下,总时间复杂度为$ O (N\times (t\times (d\times h+{h}^{2})+ T\times G\times D+L\times W)) $,总空间复杂度为$ O(N\times (d\times h+{h}^{2}+t\times h+G\times D+L+W)) $。因此,对于LSTM分模块,集成算法模型的时间复杂度主要取决于LSTM网络的输入维度、隐藏层维度和序列长度,而空间复杂度主要取决于LSTM输入维度、隐藏层维度。

2.2 GWO超参数寻优

灰狼算法中的参数设置相对较少,通常只需要调整种群大小、迭代次数和搜索范围等少数参数,这使得该算法的应用和寻优相对简单,分别设置种群大小为10、20、30、40和50开展寻优,默认最大迭代次数Epoch为100。

而对于搜索范围的决策需要充分考虑LSTM神经网络的结构特性与计算开销,依据3.1推导所得结论,在输入维数不变(即预测步长为1,输入输出均为1维序列)时需要对LSTM网络隐藏层维数(H)予以限制,对H搜索上界限设置为220,下界限为180,搜索步长取1,所有待寻优参数的搜索空间上下界如表2所示。

表 2 待寻优参数的搜索空间与搜索步长 Tab.2 Search space and search step of parameters to be optimized

设置狼群数分别为10、20、30、50的对照实验,4种模式的最大迭代次数(Epoch)均为100,得到每一个观察截断面(每20次迭代)的最小RMSE(百分数)如表3所示。

表 3 不同狼群数下的最小RMSE随迭代次数演变过程 Tab.3 The evolution of the minimum RMSE under different Wolf pack numbers with the number of iterations

观察不同狼群数的实验结果可以看到,当狼群数为10时,最终的RMSE为37.12,而当狼群数增加到20、30和50时,RMSE都趋于39.65,陷入了局部最优收敛。这表明在这个实验中,增加狼群数并没有显著改善模型的性能。

观察不同迭代次数下的RMSE值,随着迭代次数的增加,所有狼群数的RMSE值都呈现下降趋势。这表明灰狼优化算法在迭代过程中逐渐找到更好的模型参数组合,从而降低了RMSE,提高了模型性能。

结合两者的影响,可得结论,狼群数对于最终的模型性能并没有显著影响,但增加迭代次数有助于改善性能。这意味着在有限的计算资源下,增加迭代次数可能比增加狼群数更有效,以寻找更优的超参数组合。根据实验结果,可以认为,狼群数的选择并不是决定性因素,而迭代次数对于提高模型性能更为重要。为了进一步改善模型性能,建议优先考虑增加迭代次数,以便算法有更多的时间来搜索超参数空间,从而获得更小的RMSE值。

表4 ~ 表6展示了狼群数为10,Epoch分别为1、50以及100时,所有狼个体的空间位置(即参数组合)以及对应的RMSE

表 4 狼群数=10,Epoch=1 时狼群空间搜索参数组合与训练网络累积RMSE结果 Tab.4 Cumulative RMSE results of Wolf pack spatial search parameter combination and training network when Wolf pack number =10 and Epoch=1

表 5 狼群数=10,Epoch=50 时狼群空间搜索参数组合与训练网络累积RMSE结果 Tab.5 Cumulative RMSE results of Wolf pack spatial search parameter combination and training network when Wolf pack number =10 and Epoch=50

表 6 狼群数=10,Epoch=100 时狼群空间搜索参数组合与训练网络累积RMSE结果 Tab.6 RMSE results of Wolf pack spatial search parameter combination and training network accumulation when Wolf pack number =10 and Epoch=100

随着迭代次数(Epoch)的增加可以看到灰狼优化算法(GWO)通过调整LSTM神经网络超参数影响了训练网络的累积均方根误差(RMSE)。初始阶段,每个狼个体(即每组超参数)展现了不同的参数组合。这个阶段的RMSE值表明了不同参数组合对模型性能的初步影响。经过50次迭代后,参数组合开始向更优解收敛。例如,个体2和个体3的起始学习率均为0.010,其余参数也相同,显示了算法在优化过程中找到了相似的解决方案。此阶段的RMSE值普遍低于Epoch为1时的结果,表明优化过程在提升模型性能。例如,个体7、8、9的RMSE均为46.90,比初始阶段有显著下降。经过100次迭代,参数组合显示了更进一步的收敛。所有个体的参数组合几乎相同,表明算法找到了一致的优化路径。此时的RMSE值进一步下降,统一为37.12,这表明模型性能达到了一致且较好的水平。

迭代进程中的均方根误差和损失(百分数)随着迭代次数增加的下降趋势如图4所示。

图 4 模型预测效果 Fig. 4 Model prediction effect

显而易见,随着迭代次数的增加,灰狼优化算法成功地优化了LSTM神经网络的超参数与窗口尺寸MA且迭代进程中能较快收敛至较小的RMSE,使得模型的性能显著提升。结合上表中在Epoch=50时,已经形成了局部最优解的聚落,而到Epoch=100时,这些局部最优解进一步收敛,形成了更加统一和优化的参数组合。

2.3 预测结果分析

利用灰狼优化算法寻优得到的LSTM神经网络超参数组合,针对在预测浪高时序数据,进行了不同测试集尺度的预测。这涉及调整全序列的“训练/验证集-测试集”划分比例,以了解训练后的网络模型在不同数据序列长度下的性能变化,以确定在边缘部署时重新训练网络模型的频率。

使用在狼群数为10、迭代次数为100时寻优得到的超参数组合,分别按照“1200−263”,“1100−363”,“1000−463”,“900−563”的“训练/验证集-测试集”规模划分数据集。模型预测效果如下:

观察结果显示,已训练的神经网络在测试集的初期时间序列表现出了优秀的预测能力,对高频和低频数据变动都实现高度的拟合。然而,随着测试集长度的增加(从263 ~ 563),网络模型对测试集末段数据的预测性能出现下降,整体相关系数(R2)下移。特别是在图4(c)和图4(d)中,可以明显看出10月29日至31日的预测值与实际值存在明显的偏差,而在图4(a)中几乎没有这种偏差。这表明在实际预测的海浪波高情况中,可以及时进行网络模型的重新训练。每隔500个序列单位时间后,利用最近900项序列数据重新训练和更新神经网络模型,以确保模型预测精度处于持续较优状态。

3 结 语

本文提出了一种应用于波浪高度预测的MAF-GWO-LSTM神经网络算法,即使用滤波器提取高海况海浪主要特征数据,采用灰狼优化算法对LSTM神经网络参数和滑动窗口执行自适应优化,在较少的种群(狼群)数下能以较少的迭代次数完成寻优结果的收敛。其主要因素是控制灰狼优化算法寻优结果的因素更多地是迭代次数而非狼群数。实验结果表明,本文通过灰狼优化算法与LSTM模型相结合,可以有效地优化模型的权重和阈值,同时GWO-LSTM混合模型在数据处理、预报准确性及鲁棒性方面都更具优势,为高海况下海浪有效波高预报和船舶航行安全提供重要参考。

参考文献
[1]
赵勇, 苏丹. 基于4种长短时记忆神经网络组合模型的畸形波预报[J]. 上海交通大学学报, 2022, 56(4): 516-22.
ZHAO Yong, SU Dan. Rogue wave prediction based on four combined long short-term memory neural network model[J]. Journal of Shanghai Jiaotong University, 2022, 56(4): 516-22.
[2]
郑小罗, 李其超, 姜浩, 等. 基于多周期趋势分解和两级融合策略的浪高预测方法[J]. 海洋科学进展, 2023, 41(3): 466-476.
ZHENG Xiaoluo, LI Qichao, JIANG Hao, et al. Wave height prediction method based on multi-period trend decomposition and two-level fusion strategy[J]. Advances in Marine Science, 2023, 41(3): 466-476. DOI:10.12362/j.issn.1671-6647.20220809001
[3]
何盛琪, 李其超, 宋巍, 等. 基于近岸海面视频的浪高实时检测预测系统[J]. 计算机技术与发展, 2022, 32(7): 138-43. DOI:10.3969/j.issn.1673-629X.2022.07.024
[4]
李其超. 近岸浪高自动检测预测方法研究 [D]. 上海: 上海海洋大学, 2022.
[5]
卢鹏, 年圣全, 邹国良, 等. 基于变分模态分解和注意力机制的浪高预测[J]. 海洋测绘, 2021, 41(2): 34-43.
LU Peng, NIAN Shengquan, ZOU Guoliang, et al. Wave height prediction based on variational mode decomposition and attention mechanism[J]. Hydrographic Surveying and Charting, 2021, 41(2): 34-43. DOI:10.3969/j.issn.1671-3044.2021.02.006
[6]
薛阳, 燕宇铖, 贾巍, 等. 基于改进灰狼算法优化长短期记忆网络的光伏功率预测[J]. 太阳能学报, 2023, 44(7): 207-220.
XUE Yang, YAN Yucheng, JIA Wei, et al. Photovoltaic power prediction model based on IGWO-LSTM[J]. Acta Energiae Solaris Sinica, 2023, 44(7): 207-220.
[7]
姚汭成, 龚德文. 基于GWO-SVR的深海采矿海试区海浪高度预测[J]. 矿冶工程, 2022, 42(6): 24-32.
YAO Ruicheng, GONG Dewen. Prediction of sea wave height in testing area for deep-sea mining based on GWO-SVR[J]. Mining and Metallurgical Engineering, 2022, 42(6): 24-32. DOI:10.3969/j.issn.0253-6099.2022.06.005
[8]
DOMALA V, KIM T-W. Application of empirical mode decomposition and hodrick prescot filter for the prediction single step and multistep significant wave height with LSTM[J]. Ocean Engineering, 2023, 285: 115229. DOI:10.1016/j.oceaneng.2023.115229
[9]
MENG Z-F, CHEN Z, KHOO B C, et al. Long-time prediction of sea wave trains by LSTM machine learning method[J]. Ocean Engineering, 2022, 262: 112213. DOI:10.1016/j.oceaneng.2022.112213
[10]
LOU G, LIN W, HUANG G, et al. A two-stage online remaining useful life prediction framework for supercapacitors based on the fusion of deep learning network and state estimation algorithm[J]. Engineering Applications of Artificial Intelligence, 2023, 123: 106399. DOI:10.1016/j.engappai.2023.106399
[11]
ZHANG J, XIN X, SHANG Y, et al. Nonstationary significant wave height forecasting with a hybrid VMD-CNN model[J]. Ocean Engineering, 2023, 285: 115338. DOI:10.1016/j.oceaneng.2023.115338
[12]
ZHAO L, LI Z, QU L, et al. A hybrid VMD-LSTM/GRU model to predict non-stationary and irregular waves on the east coast of China[J]. Ocean Engineering, 2023, 276: 114136. DOI:10.1016/j.oceaneng.2023.114136
[13]
MIRJALILI S, SAREMI S, MIRJALILI S M, et al. Multi-objective grey wolf optimizer: A novel algorithm for multi-criterion optimization[J]. Expert Systems with Applications, 2016, 47: 106-119. DOI:10.1016/j.eswa.2015.10.039
[14]
XIE J, XUE X. A novel hybrid model based on grey wolf optimizer and group method of data handling for the prediction of monthly mean significant wave heights[J]. Ocean Engineering, 2023, 284: 115274. DOI:10.1016/j.oceaneng.2023.115274
[15]
ZHANG X, LU B, ZHANG L, et al. An enhanced grey wolf optimizer boosted machine learning prediction model for patient-flow prediction[J]. Computers in Biology and Medicine, 2023, 163: 107166. DOI:10.1016/j.compbiomed.2023.107166
[16]
LIANG J, DU Y, XU Y, et al. Using Adaptive chaotic grey wolf optimization for the daily streamflow prediction[J]. Expert Systems with Applications, 2024, 237: 121113. DOI:10.1016/j.eswa.2023.121113