文章快速检索  
  高级检索
一种基于改进KELM的在线状态预测方法
朱敏, 许爱强, 陈强强, 李睿峰     
海军航空大学, 烟台 264001
摘要: 针对核超限学习机(KELM)在线状态预测过程中,核矩阵阶数不断增长且难以跟踪时变动态特征的问题,提出了一个具有遗忘因子的稀疏KELM在线状态预测方法。通过引入遗忘因子构建新的目标函数,使稀疏字典中各元素依据时间远近具有不同权重,保证了模型对动态变化的有效跟踪;通过最小化字典的快速留一交叉验证(FLOO-CV)误差,选择具有预定规模的关键节点构成字典;基于当前字典,通过矩阵初等变换和分块求逆,实现相关参数的递推更新。某型飞机发动机的状态预测结果表明,与目前已有的3种在线序贯KELM相比,所提方法在6个监测项目上的平均训练时间分别缩短了7.5%、62.0%和81.9%,平均预测精度分别提升了44.0%、19.9%和50.9%。
关键词: 状态预测     在线序贯学习     快速留一交叉验证(FLOO-CV)     超限学习机     核方法    
An improved KELM based online condition prediction method
ZHU Min, XU Aiqiang, CHEN Qiangqiang, LI Ruifeng     
Naval Aeronautical and Astronautical University, Yantai 264001, China
Received: 2018-11-22; Accepted: 2018-12-28; Published online: 2019-01-04 15:08
Foundation item: National Natural Science Foundation of China (11802338); Natural Science Foundation of Shandong Province (ZR2017MF036)
Corresponding author. XU Aiqiang, E-mail: hjhyautotest@sina.com
Abstract: In order to curb kernel matrix expansion and track the time-varying dynamic characteristics when kernel extreme learning machine (KELM) is applied to online condition prediction, a sparse KELM online prediction algorithm with forgetting factor is proposed. By introducing forgetting factor, a new objective function is constructed, which makes every element in sparse dictionary has different weights related to timestamp and ensures the effective tracking of the dynamic changes. By minimizing the fast leave-one-out cross-validation (FLOO-CV) error, key nodes with predetermined size are selected to form a dictionary. At the same time, the online recursive updating of model parameters is realized based on the elementary transformation of matrix and the inverse formula of block matrix. The proposed algorithm is compared with the recently proposed three online sequential KELM algorithms. The experimental results of aero-engine condition prediction show that the average training time of the proposed algorithm on six monitoring items is reduced by 7.5%, 62.0% and 81.9% respectively, and the average prediction accuracy is improved by 44.0%, 19.9% and 50.9% respectively.
Keywords: condition prediction     online sequential learning     fast leave-one-out cross-validation(FLOO-CV)     extreme learning machine     kernel method    

基于时间序列预测的状态预测方法为提升早期故障的检测能力提供了一种有效途径,对提高系统稳定性和安全性具有重大意义[1]

Huang等[2]提出的超限学习机(Extreme Learning Machine,ELM)因快速的计算速度、突出的全局近似能力,已被应用于处理包括时间序列预测在内的复杂非线性问题[3-4]。为了适应在线序贯学习需要,Huang等[5]提出了ELM的在线学习版本,即OS-ELM(Online Sequential Extreme Learning Machine);2011年,Huang等[6]又利用核技巧对ELM进行扩展,提出了核超限学习机(Kernel ELM,KELM),其能够以更快的学习速度实现与支持向量机(Support Vector Machine,SVM)相似的(回归和二分类任务)或更好的(多分类任务)泛化性能。

然而,由于OS-ELM并非属于基于核的方法,处理非线性问题的性能并不突出;KELM作为一种离线的批学习方法,其模型更新需花费大量时间与存储空间,显然无法满足在线状态预测对实时性的要求。因此,发展一种基于核方法的增量算法或序贯算法显然是一种更好的选择[7]

文献[8]基于分块矩阵的求逆公式提出了KELM的增量学习方法,即KB-IELM,首次将KELM扩展到在线应用。KB-IELM的模型阶数随训练样本的增加而线性增长,计算成本随之超线性增加。为解决此问题,放弃冗余信息、选择更有价值的样本去构造并更新模型成为普遍共识[9-10],这就是模型的稀疏化过程。文献[11]将这些有价值的样本称作元(atoms),由此构成的子集称作字典(dictionary)。

近年来,大量稀疏化方法被引入KELM在线学习中。文献[12-13]提出一种基于传统滑动时间窗的KELM在线学习方法,该方法使用时间窗内的样本构造字典,其模型复杂度和泛化性能直接依赖于时间窗宽度;文献[7]提出一种基于近似线性独立(Approximate Linear Dependency,ALD)准则的KELM在线学习方法,该方法虽然提升了模型泛化性能,但是复杂度较高[14],且需要预设一个误差阈值。文献[15-16]分别基于瞬时信息测量和积累一致性测量提出包括“构造”、“修剪”在内的两步稀疏化方法,实现了对训练样本有区别的取舍。但是,瞬时信息的计算依赖于一系列概率密度函数,而往往这些概率密度函数却不易计算;积累一致性仅仅依赖于系统输入的特征,而没有考虑系统输出。文献[17]在使用瞬时信息测量作为稀疏准则的基础上,同时引入时变正则化因子,虽然保证了模型在不同的非线性区域拥有不同的结构风险,但增加的正则化因子的寻优过程大大影响了在线应用的计算效率。另外,以上所有稀疏化方法都或多或少引入了额外的计算量。

迄今为止,所有基于KELM的增量学习或在线学习方法,均将纳入模型的有效样本(字典内的样本)视为等价值,在对动态的非线性映射建模时,这种样本间“权重均衡”的做法显然是不合理的,时间越近的样本应该在建模时拥有更大的参考价值[18-19]。基于此,本文提出了一种具有遗忘因子的KELM在线稀疏学习方法(Online Sparse KELM with Forgetting Factor,FF-OSKELM)。该方法通过引入遗忘因子重新定义KELM的目标函数,使字典内时间越近的样本在建模时具有越高的权重,在此基础上,重新推导了一个统一的学习框架,在使快速留一交叉验证(Fast Leave-One-Out Cross-Validation,FLOO-CV)误差实现字典稀疏化的同时,进行核权重向量的同步更新。通过实例分析表明,本文方法具有很高的时效性、预测准确性和稳定性,适用于解决在线状态预测问题。

1 核超限学习机

假设有一数据流S={(x1, y1), (x2, y2), …},xi为一个d维的输入向量,yi为对应的输出值。则ELM模型定义为[2]

(1)

式中:β=[β1, β2, …, βL]T为模型输出权重向量;h(xi)=[h1(xi), h2(xi), …, hL(xi)]为隐层神经元对输入样本xi的映射向量;ξi为对应于第i个样本的训练误差;c为正则化参数,并且cR+

基于KKT优化条件求解式(1)的优化问题,可得输出权重为

(2)

式中:yt=[y1, y2, …, yt]T为输入样本对应的目标值向量;H=[hT(x1), hT(x2), …, hT(xt)]T为输入样本的映射矩阵。

应用Mercer条件定义核矩阵Ω=HHTΩ(i, j)=h(xihT(xj)=k(xi, xj),可得ELM的核化形式为

(3)

式中:kt为当前时刻的核估计向量,并且有kt=[k(·, x1), k(·, x2), …, k(·, xt)];θt=[θ1, θ2, …, θt]Tt时刻的核权重向量,且θt=(c-1I+Ωt)-1yt

由此可见,KELM是一系列核函数的线性组合,其中每个样本xi的地位是等同的,这对动态变化的非线性映射建模是不合适的,并且当t→∞时,方法的计算负担显然将无法承受。因此,改进的方法至少需要关注以下3个方面:①考虑样本xi时间差异性的KELM的重新定义;②在重新定义的KELM的基础上,构成稀疏字典的有效样本的选择;③核权重向量θt的更新。

2 改进的在线核超限学习机 2.1 具有遗忘因子的KELM

定义1 假设数据流S={(x1, y1), (x2, y2), …},xi为一个d维的输入向量,yi为对应的输出值。则具有遗忘因子的ELM定义为

(4)

与式(1)相比,式(4)引入了参数γ,称之为遗忘因子,并且0 << γ < 1。

解优化方程式(4),得到输出权重为

(5)

式中:E=diag{γt-1, γt-2, …, 1}。

根据矩阵求逆公式:

(6)

,通过式(6),有

(7)

把式(7)代入式(5),得到

(8)

进一步,令,则核权重向量为

(9)

此时,具有遗忘因子的ELM的核化形式(以下简称FF-KELM)为

(10)
2.2 基于FLOO-CV误差的字典选择

设在时刻t稀疏字典为Dt={k(·, xit)}i=1m,{x1t, x2t, …, xmt} ⊂{x1, x2, …, xt},字典大小为m。基于式(9),两端同时乘以m阶矩阵At,得到[20]

(11)

式中:θt移除第m个元素θmt后的向量;ytyt移除第m个元素ymt后的向量;AtAt移除第m行和第m列后的矩阵;VtAt的第m列移除第m个元素构成的向量;dm为示截止到t时刻曾经进入过字典的样本数量。

当使用前m-1个样本构成的稀疏矩阵对xmt进行预测时,FF-KELM输出权值为,因此,FF-KELM对xmt的输出预测值为

(12)

由式(11),有

(13)

把式(13)代入式(12),有

(14)

根据式(13)和式(14),FF-KELM对样本(xmt, ymt)的FLOO-CV误差估计为

(15)

根据式(11)中At的分块形式,利用块矩阵逆公式,得到

(16)

式中:

若令diag(At-1)i表示At-1i行第i列元素,则式(15)进一步简化为

(17)

结合式(16)、式(17)可知,t时刻第m个样本对应的遗忘因子对ξloo(-m)(t)的影响只体现在ρt上。文献[20]表明,式(11)中交换元素的顺序对方程的解不会造成影响,由上述推导可知,该结论在FF-KELM中依然成立,故Dt中每个元素的FLOO-CV误差可表示为

(18)

Et=[ξloo(-1)(t), ξloo(-2)(t), …, ξloo(-m)(t)],其代表时刻t的泛化误差向量,则平均泛化误差εt

(19)

t+1时刻,当新样本(xt+1, yt+1)到达时,根据式(10)模型对其输出预测值表示为 。将εt设为自适应阈值,若,则根据2.3节更新字典及模型;若εt,则字典及模型保持不变。

2.3 核权重向量在线更新

本节将核权重向量的更新过程分为构造和修剪2个阶段,新样本(xi+1, yi+1)到来后,依据阶段不同采用不同的处理方式。

当当前字典的规模mt小于预设规模m时,为构造阶段。在此阶段,设时刻t字典为Dt={k(·, xi)}i=1t,令At=c-1γtB-1+HHT。则在时刻t+1,对于新样本(xt+1, yt+1),Dt+1=Dtk(·, xt+1),且有

(20)

式中:,

与式(16)类似,进一步有

(21)

式中:。此时核权重向量的递推更新公式表示为

(22)

式中:为第i个关键节点对应的目标值。

当字典的大小达到预定规模,即mt=m时,下一时刻进入修剪阶段。此时,为使字典规模保持恒定,在加入新样本前应当先删除一个样本,该样本在字典中的索引可表示为

(23)

At写成如图 1所示的形式。

图 1 矩阵变换前的At Fig. 1 At before matrix transformation

图 1中:d1 < d2 < … < di < … < dm, i为通过式(23)得到的样本索引。将At中的第i行移到第1行,第列移到第1列,其结果记为表示,其中PQ是2个m阶的初等矩阵,并且有

(24)
(25)

显然,。考虑到,可以得到如下结论:

(26)

由式(26),可得

(27)

,即,将表示为

(28)

再将用块矩阵形式表示为

式中:为矩阵At中移除第i行和第i列后的矩阵。

根据块矩阵逆公式对求逆,有

(29)

式中:

联合式(28)和式(29),有

(30)

式(30)等号右侧第1项可以写成

(31)

将式(31)的结果代入式(30)中,得到

(32)

在时刻t+1,经过2.2节的字典选中,当新样本(xt+1, yt+1)作为有价值的节点需要插入字典中时,有

式中:;向量Vt+1=

通过块矩阵求逆公式得到At+1的逆矩阵为

(33)

式中:

联合式(27)、式(28)、式(32)、式(33),可得At+1-1At-1的递推关系,实现字典以快速留一交叉验证的方式删除一个样本后剩余样本的递推更新。进一步,可得核权重向量的更新公式,即,其中,

3 方法流程与复杂性分析 3.1 方法流程

将本文提出的FF-OSKELM方法流程总结如下。

步骤1  初始化。设置模型参数,包括字典规模m, 遗忘因子γ,核参数σ,令mt=1,t=1,Dt={k(·, x1)},计算

步骤2  新样本(xt+1, yt+1)到达,若mt < m,执行步骤3,否则执行步骤4。

步骤3  使用式(21)更新At+1-1,使用式(22)更新,返回步骤2。

步骤4  使用式(10)计算,使用式(19)计算εt,如果,字典及模型保持不变,返回步骤2;否则执行步骤5。

步骤5  使用式(23)确定下标i,删除第i个字典后的字典记为,新字典为{xt+1},联合式(27)、式(28)、式(32)、式(33)更新At+1-1,进而更新,返回步骤2。

3.2 复杂性分析

以下对方法的2个主要过程简要分析其复杂性。

在核权重向量更新过程中,在构造阶段,计算kt的时间复杂度为O(mt),而计算At+1-1的时间复杂度为O(mt2);在修剪阶段,计算的时间复杂度分别为O(m2)和O((m-1)2),计算的时间复杂度为O(m-1),而计算At+1-1的时间复杂度为O((m-1)2)。因此,更新权重的时间复杂度为O(m2)。

在使用FLOO-CV误差进行字典关键节点选择过程中,计算预测值和自适应阈值εt所需要的唯一中间变量At-1在上一步的核权重更新过程已经计算完毕,因此该过程没有引进额外计算量,其计算复杂度只为O(m)。

一般说来,字典规模m不会太大,因此本文方法可以满足在线应用的需求。

4 实验分析

仿真实验从计算复杂度、预测精度、预测稳定性3个方面进行设计。计算复杂度通过训练时间和测试时间来衡量,预测精度通过均方根误差(Root Mean Square Error,RMSE)来度量,最大绝对预测误差(Maximal Absolute Prediction Error,MAPE)和平均相对误差率(Mean Relative Error Rate,MRPE)则作为预测稳定性的衡量指标。

本文所有方法均采用高斯核作为核函数,即。实验环境为:MATLAB2018a,Windows 7操作系统,Intel Core i7处理器,3.40 GHz主频和8 GB RAM。

4.1 非平稳Mackey-Glass混沌时间序列预测

本节首先使用Mackey-Glass混沌时间序列来证明本文方法的有效性。可以通过如下时延差分方程得到:

初始条件与文献[17]完全相同,即a=0.2,b=0.1,τ=17,x(0)=1.2,当t < 0时,x(t)=0,步长Δ=0.1,通过四阶Runge-Kutta方法解方程,在此基础上,加上正弦曲线0.3 sin(2 πt/3 000)以得到新的时间序列。设置采样间隔Ts=10Δ,规定时间嵌入维数等于10,由此获得了与文献[17]完全相同的数据集,包含1 191组样本数据,前991组用于训练,后200组用于测试。

本节实验中分别用ReOS-ELM[21]、KB-IELM[8]、FOKELM[12]、FF-KB-IELM(在KB-IELM基础上引入本文的遗忘因子)、FF-FOKELM(在FOKELM基础上引入本文的遗忘因子)、ALD-KOS-ELM[7]、NOS-KELM[17]与本文FF-OSKELM方法对比。ReOS-ELM采用Sigmoid函数作为激活函数,即

式中:p为偏量。

实验中所有方法的对应参数均与文献[17]一致,如表 1所示,其预测结果如表 2所示。由表 2可知:①由ReOS-ELM和其他方法的对比可知,在大多数情况下(ReOS-ELM的实验结果具有随机性),从精度上看,基于核的在线预测方法优于ReOS-ELM;从训练时间上看,ReOS-ELM勉强与KB-IELM相当,但远远差于带稀疏化过程的方法;ReOS-ELM的预测稳定性是最差的。②由KB-IELM和FF-KB-IELM及FOKELM和FF-FOKELM的对比可知,加上遗忘因子后,原有方法无论是在精度还是在训练及预测时间上都小有提升,这是因为遗忘因子的引入使模型在学习过程中能够不同程度地忘记过时数据,进而降低其在学习过程中的不利影响,同时更快地适应新到数据。③得益于遗忘因子及基于FLOO-CV误差的稀疏字典选择,本文方法在训练时间、精度及预测稳定性3个方面都远远超过KB-IELM,即使与文献[17]的NOS-KELM方法相比,本文方法也具有明显优势。在同样的数据集、硬件平台、算法参数的条件下,其保持预测时间极短的同时,训练时间缩短了92%,训练和预测精度分别提升了67%、65%,MAPE及MRPE分别提升了58%、63%。

表 1 实验1参数设置 Table 1 Parameter setup in Experiment 1
方法 正则化参数c 核参数σ 其他参数
ReOS-ELM 2×103 L=50
KB-IELM 10 10
FF-KB-IELM 10 10 γ=0.999
FOKELM 2×104 10 z=50
FF-FOKELM 2×104 10 z=50, γ=0.999
ALD-KOS-ELM 1×103 10 b=0.000 01
NOS-KELM 2×104 10 m=50, δ=0.01, η=0.8
FF-OSKELM 2×104 10 m=50, γ=0.999
注:L为ReOS-ELM中隐层神经元个数;z为FOKELM中时间窗长度;ALD-KOS-ELM中的b表示ALD准则需要设置的阈值;NOS-KELM中的δη均是梯度下降法中运用动态学习率时需要设置的常数,详细请参见相关文献[17]。

表 2 实验1预测结果 Table 2 Prediction results of Experiment 1
方法 训练 测试
时间/s RMSE 时间/s RMSE MAPE MRPE
ReOS-ELM 7.940 5 0.019 5 0.00 11 0.018 6 0.050 0 0.012 1
KB-IELM 8.665 9 0.017 5 0.010 7 0.015 3 0.042 0 0.010 8
FF-KB-IELM 8.632 2 0.015 3 0.010 1 0.013 2 0.037 5 0.009 4
FOKELM 0.092 2 0.026 8 4.446 5×10-4 0.012 2 0.031 7 0.008 3
FF-FOKELM 0.088 6 0.025 9 3.314 5×10-4 0.011 0 0.028 6 0.007 4
ALD-KOS-ELM 0.146 4 0.011 2 3.716 0×10-4 0.010 9 0.025 0 0.008 1
NOS-KELM 0.565 0 0.010 4 2.405 9×10-4 0.009 3 0.026 3 0.006 3
FF-OSKELM 0.045 4 0.003 4 3.512 2×10-4 0.003 3 0.011 0 0.002 3
注:ELM输入层初始权重的随机性导致ReOS-ELM的实验结果具有很大的随机性,表中只列出了ReOS-ELM一次实验的结果。

图 2为ALD-KOS-ELM、NOS-KELM、FF-OSKELM这3种使用了稀疏化过程的方法参与训练的样本数随时间变化的关系。可以发现:①只有不到1/10的训练样本被FF-OSKELM模型所使用,这说明基于FLOO-CV误差的字典稀疏化方法有很好的稀疏效果(虽然本节实验中ALD-KOS-ELM参与训练的样本量更少,但其严重依赖额外的阈值参数),也从另一个方面对训练时间的缩短给出了合理解释。②随着训练步数的增加,实际参与训练的样本数量趋于稳定,不会无限增加。说明在本文方法下,实验中的时间序列的输入模式是有限的,这也和大部分正常工作的非线性系统的工作状态相吻合。

图 2 对Mackey-Glass混沌时间序列学习的训练样本数 Fig. 2 Number of learned samples for chaotic Mackey-Glass time series

图 3图 4为FOKELM、KB-IELM、ALD-KOS-ELM、FF-OSKELM这4种方法对Mackey-Glass混沌时间序列的学习曲线及预测曲线。由图 3可以看到,FF-OSKELM性能更强,其主要优势体现在随着训练步数(训练样本数)的增加,相比于其他方法,可以收敛到一个更加精确的阶段。

图 3 不同方法的学习曲线(实验1) Fig. 3 Learning curves of different methods (Experiment 1)
图 4 不同方法的预测曲线(实验1) Fig. 4 Prediction curves of different methods (Experiment 1)

图 4(a)表明,所有方法大体上均能有效跟踪目标序列,进一步,由图 4(b)的局部放大图可知,相比其他方法,FF-OSKELM预测误差更小,具有最佳的动态跟踪能力。考虑到FF-OSKELM更好的时效性,因此本文提出的方法用于时间序列预测具有相当的优势。

4.2 基于飞参数据的飞机发动机状态预测

本文方法具有一定的通用性,适用于时间序列数据的预测。以某型直升机发动机为例,选取了发动机扭矩等6个主要监测项目,原始数据取自该型机的飞参系统。图 5为某飞行时间段内发动机排气温度与滑油压力的变化曲线。

图 5 某发动机排气温度与滑油压力变化曲线 Fig. 5 Curves of exhaust gas temperature and oil pressure of an aero-engine

每间隔1 s进行采样,每个监测项目获取100组样本。为证明本文方法的优势,样本的预处理方法与相关参数的设置与文献[15]相同,即:时间嵌入维数设为3,由此获得97组新样本(前67组用于训练,后30组用于测试),实验中各方法的参数设置如表 3所示。4.1节结果表明,ReOS-ELM、KB-IELM及FF-KB-IELM各项性能较其他方法相差甚远,因此本节实验只选择FOKELM、ALD-KOS-ELM及NOS-KELM这3种方法与本文方法FF-OSKELM进行比较。

表 3 实验2参数设置 Table 3 Parameter setup in Experiment 2
监测项目 正则化
参数c
核参数
σ
m 阈值δ
发动机扭矩 2×104 5×104 30 2×10-5
发动机转速 2×104 1×109 30 2×10-8
排气温度 2×104 1×107 30 2×10-9
滑油温度 2×104 2×105 30 2×10-9
滑油压力 2×104 2×104 30 2×10-9
燃油瞬时流量 2×103 2×105 30 2×10-6
注:阈值δ为ALD-KOS-ELM的参数,m为其他3种方法的参数,表示字典规模或时间窗长度。

将后30组测试样本全部作为预测数据,表 4为4种方法分别对6个监测项目的预测结果,其中各监测项目中的最优指标以加粗字体标出。可以看到:①从训练时间上看,FOKELM在某些监测项目上要略优于本文方法,这是因为本节实验中训练样本极少且已有样本的“规律性”不明显,意味着样本的价值性更高,导致更多的样本被纳入字典中进行训练,增加了包括本文方法在内的3种具有稀疏化过程的方法的训练时间。②对于绝大部分监测项目,即便在训练样本如此稀少而预测步长如此大的不利条件下,本文方法在预测精度和预测稳定性上依然拥有相当程度的优势。

表 4 实验2预测结果 Table 4 Prediction results of Experiment 2
监测项目 方法 训练 测试
时间/s RMSE RMSE MAPE MRPE
发动机扭矩 FOKELM 0.006 8 0.846 3 1.453 8 3.342 7 0.166 5
ALD-KOS-ELM 0.006 9 0.784 6 1.020 5 2.581 4 0.110 8
NOS-KELM 0.045 0 0.710 8 1.457 0 3.421 6 0.167 5
FF-OSKELM 0.005 7 0.653 0 1.304 1 3.062 2 0.150 7
发动机转速 FOKELM 0.003 1 333.634 4 241.756 6 627.155 1 0.007 2
ALD-KOS-ELM 0.011 4 91.332 5 167.500 5 451.946 1 0.005 2
NOS-KELM 0.053 4 156.557 5 276.815 6 684.522 2 0.007 9
FF-OSKELM 0.004 4 82.935 1 132.873 9 385.796 6 0.004 0
排气温度 FOKELM 0.005 6 4.859 3 7.474 8 19.777 0 0.012 5
ALD-KOS-ELM 0.031 0 4.192 1 5.402 7 13.672 6 0.009 3
NOS-KELM 0.038 8 5.386 8 7.648 3 20.021 0 0.012 8
FF-OSKELM 0.005 2 3.286 17 3.855 3 9.694 2 0.006 7
滑油温度 FOKELM 0.004 3 0.183 7 0.321 1 0.511 7 0.008 1
ALD-KOS-ELM 0.044 4 0.044 7 0.160 4 0.250 0 0.004 2
NOS-KELM 0.062 6 0.218 9 0.701 0 0.985 9 0.018 5
FF-OSKELM 0.004 7 0.031 7 0.108 5 0.180 9 0.002 8
滑油压力 FOKELM 0.004 6 0.111 5 0.105 4 0.140 0 0.030 9
ALD-KOS-ELM 0.035 0 0.061 4 0.040 7 0.056 3 0.012 5
NOS-KELM 0.039 1 0.077 5 0.050 4 0.075 7 0.015 2
FF-OSKELM 0.025 7 0.036 7 0.028 0 0.045 7 0.008 4
燃油瞬时流量 FOKELM 0.033 5 3.353 4 7.456 0 18.800 3 0.031 7
ALD-KOS-ELM 0.012 2 2.419 3 6.589 6 23.668 6 0.024 4
NOS-KELM 0.057 4 2.619 0 7.698 1 18.667 9 0.033 6
FF-OSKELM 0.007 8 2.163 2 6.508 9 23.396 4 0.024 1
注:因为方法的测试时间均过于短暂,已能满足绝大部分在线应用需求,此表不再将之作为对比项。

以预测发动机未来30个单位时间内的滑油压力为例,4种方法的学习曲线如图 6所示。其中,NOS-KELM因为需要使用前30个样本进行初始化,所以从第31个样本开始计算测试的均方根误差。可以看到,FF-OSKELM收敛精度要优于ALD-KOS-ELM和NOS-KELM。尽管FOKELM在训练的某些阶段表现出了与FF-OSKELM相当的性能,但其收敛性并不稳定,在某些阶段内,甚至有可能出现随着训练样本的增加性能反而持续下降的趋势。

图 6 不同方法的学习曲线(实验2) Fig. 6 Learning curves of different methods (Experiment 2)

当预测步数为30时,4种方法对滑油压力的预测曲线如图 7所示。显然,与其他3种方法相比,FF-OSKELM匹配效果最好。相应地,图 8显示了对滑油压力的绝对预测误差(Absolute Pre- diction Error,APE)曲线。图中:红色虚线为参考线。对比可知,FF-OSKELM整体上拥有最低的预测误差。

图 7 滑油压力预测曲线 Fig. 7 Prediction curves of oil pressure
图 8 滑油压力绝对预测误差曲线 Fig. 8 Absolute prediction error curves of oil pressure
5 结论

本文考虑在线预测中样本的时间差异性,定义了具有遗忘因子的核超限学习机(FF-KELM)。在此基础上,针对其模型膨胀问题,给出了FF-KELM的在线版本(FF-OSKELM),并将之运用于某型直升机发动机的状态预测,实验结果表明:

1) 相比于KB-IELM和FOKELM,遗忘因子的引入可以在原有方法的基础上进一步缩短训练时间,提升预测精度和预测稳定性。

2)在稀疏化方法上,同为无需引入额外阈值参数的自适应的稀疏方法,本文采用的FLOO-CV方法比NOS-KELM使用的瞬时信息测量的稀疏效果要更好,且没有引入额外的计算量。

3)在发动机性能参数的训练数据量仅为67而预测步长等于30的恶劣条件下,与FOKELM、ALD-KOS-ELM和NOS-KELM相比,本文方法预测时间几乎为0,在6个监测项目上的平均训练时间分别缩短了7.6%、62.0%和81.9%,平均预测均方根误差分别提升了44.0%、19.9%和50.9%,且整体上具有更好的预测稳定性,能满足在线状态预测要求。

参考文献
[1]
TIAN Z, QIAN C, GU B, et al. Electric vehicle air conditioning system performance prediction based on artificial neural network[J]. Applied Thermal Engineering, 2015, 89: 101-104. DOI:10.1016/j.applthermaleng.2015.06.002
[2]
HUANG G B, ZHU Q Y, SIEW C K. Extreme learning machine:Theory and application[J]. Neurocomputing, 2006, 70(1-3): 489-501. DOI:10.1016/j.neucom.2005.12.126
[3]
YIN G, ZHANG Y T, LI Z N, et al. Online fault diagnosis method based on incremental support vector data description and extreme learning machine with incremental output structure[J]. Neurocomputing, 2014, 128: 224-231. DOI:10.1016/j.neucom.2013.01.061
[4]
BILAL M, LIN Z P, LIU N. Ensemble of subset online sequential extreme learning machine for class imbalance and concept drift[J]. Neurocomputing, 2015, 149: 316-329. DOI:10.1016/j.neucom.2014.03.075
[5]
LIANG N Y, HUANG G B, SARATCHANDRAN P, et al. A fast and accurate online sequential learning algorithm for feedforward networks[J]. IEEE Transactions on Neural Networks, 2006, 17(6): 1411-1423. DOI:10.1109/TNN.2006.880583
[6]
HUANG G B, ZHOU H, DING X, et al. Extreme learning machine for regression and multiclass classification[J]. IEEE Transactions on Systems, Man, and Cybernetics-Part B:Cybernetics, 2011, 42(2): 513-529.
[7]
SCARDAPANE S, COMMINIELLO D, SCARPINITI M, et al. Online sequential extreme learning machine with kernels[J]. IEEE Transactions on Neural Networks and Learning Systems, 2015, 26(9): 2214-2220. DOI:10.1109/TNNLS.2014.2382094
[8]
GUO L, HAO J H, LIU M. An incremental extreme learning machine for online sequential learning problems[J]. Neurocomputing, 2014, 128: 50-58. DOI:10.1016/j.neucom.2013.03.055
[9]
YU X, RASHID M, FENG J, et al. Online glucose prediction using computationally efficient sparse kernel filtering algorithms in type-1 diabetes[J]. IEEE Transactions on Control Systems Technology, 2018, 99: 1-13.
[10]
HAN M, ZHANG S, XU M, et al. Multivariate chaotic time series online prediction based on improved kernel recursive least squares algorithm[J]. IEEE Transactions on Cybernetics, 2018, 49(4): 1160-1172.
[11]
HONEINE P. Analyzing sparse dictionaries for online learning with kernels[J]. IEEE Transactions on Signal Processing, 2015, 63(23): 6343-6353. DOI:10.1109/TSP.2015.2457396
[12]
ZHOU X R, LIU Z J, ZHU C X. Online regularized and kernelized extreme learning machines with forgetting mechanism[J]. Mathematical Problems in Engineering, 2014, 2014: 1-11.
[13]
ZHOU X R, WANG C S. Cholesky factorization based online regularized and kernelized extreme learning machines with forgetting mechanism[J]. Neurocomputing, 2016, 174: 1147-1155. DOI:10.1016/j.neucom.2015.10.033
[14]
RICHARD C, BERMUDEZ J C M, HONEINE P. Online prediction of time series data with kernels[J]. IEEE Transactions on Signal Processing, 2009, 57(3): 1058-1067. DOI:10.1109/TSP.2008.2009895
[15]
张伟, 许爱强, 高明哲. 基于稀疏核增量超限学习机的机载设备在线状态预测[J]. 北京航空航天大学学报, 2017, 43(10): 2089-2098.
ZHANG W, XU A Q, GAO M Z. Online condition prediction of avionic devices based on sparse kernel incremental extreme learning machine[J]. Journal of Beijing University of Aeronautics and Astronautics, 2017, 43(10): 2089-2098. (in Chinese)
[16]
张伟, 许爱强, 高明哲. 一种基于积累一致性测量的在线状态预测算法[J]. 上海交通大学学报, 2017, 51(11): 1391-1398.
ZHANG W, XU A Q, GAO M Z. An online condition prediction algorithm based on cumulative coherence measurement[J]. Journal of Shanghai Jiaotong University, 2017, 51(11): 1391-1398. (in Chinese)
[17]
ZHANG W, XU A Q, PING D F, et al. An improved kernel-based incremental extreme learning machine with fixed budget for nonstationary time series prediction[J]. Neural Computing & Applications, 2019, 31(3): 637-652.
[18]
LIM J S, LEE S, PANG H S, et al. Low complexity adaptive forgetting factor for online sequential extreme learning machine (OS-ELM) for application to nonstationary system estimations[J]. Neural Computing & Applications, 2013, 22(3-4): 569-576.
[19]
郭威, 徐涛, 于建江, 等. 基于M-estimator与可变遗忘因子的在线贯序超限学习机[J]. 电子与信息学报, 2018, 40(6): 94-101.
GUO W, XU T, YU J J, et al. Online sequential extreme learning machine based on m-estimator and variable forgetting factor[J]. Journal of Electronics & Information Technology, 2018, 40(6): 94-101. (in Chinese)
[20]
张英堂, 马超, 李志宁, 等. 基于快速留一交叉验证的核极限学习机在线建模[J]. 上海交通大学学报, 2014, 48(5): 641-646.
ZHANG Y T, MA C, LI Z N, et al. Online modeling of kernel extreme learning machine based on fast leave-one-out cross-validation[J]. Journal of Shanghai Jiaotong University, 2014, 48(5): 641-646. (in Chinese)
[21]
HUYNH H T, WON Y. Regularized online sequential learning algorithm for single-hidden layer feedforward neural networks[J]. Pattern Recognition Letters, 2011, 32(14): 1930-1935. DOI:10.1016/j.patrec.2011.07.016
http://dx.doi.org/10.13700/j.bh.1001-5965.2018.0685
北京航空航天大学主办。
0

文章信息

朱敏, 许爱强, 陈强强, 李睿峰
ZHU Min, XU Aiqiang, CHEN Qiangqiang, LI Ruifeng
一种基于改进KELM的在线状态预测方法
An improved KELM based online condition prediction method
北京航空航天大学学报, 2019, 45(7): 1370-1379
Journal of Beijing University of Aeronautics and Astronsutics, 2019, 45(7): 1370-1379
http://dx.doi.org/10.13700/j.bh.1001-5965.2018.0685

文章历史

收稿日期: 2018-11-22
录用日期: 2018-12-28
网络出版时间: 2019-01-04 15:08

相关文章

工作空间