基于混合分布加权M估计和自适应正则化的随机配置网络

严爱军 郝晨

严爱军, 郝晨. 基于混合分布加权M估计和自适应正则化的随机配置网络 [J]. 智能系统学报, 2025, 20(6): 1392-1403. doi: 10.11992/tis.202501023
引用本文: 严爱军, 郝晨. 基于混合分布加权M估计和自适应正则化的随机配置网络 [J]. 智能系统学报, 2025, 20(6): 1392-1403. doi: 10.11992/tis.202501023
YAN Aijun, HAO Chen. Stochastic configuration networks based on mixed distribution weighted M-estimation and adaptive regularization [J]. CAAI Transactions on Intelligent Systems, 2025, 20(6): 1392-1403. doi: 10.11992/tis.202501023
Citation: YAN Aijun, HAO Chen. Stochastic configuration networks based on mixed distribution weighted M-estimation and adaptive regularization [J]. CAAI Transactions on Intelligent Systems, 2025, 20(6): 1392-1403. doi: 10.11992/tis.202501023

基于混合分布加权M估计和自适应正则化的随机配置网络

doi: 10.11992/tis.202501023
基金项目: 国家自然科学基金项目(62373017,62073006);北京市自然科学基金项目(4212032).
详细信息
    作者简介:

    严爱军,博士生导师,教授,主要研究方向为复杂过程建模与智能优化控制方法。发表学术论文100余篇。E-mail:yanaijun@bjut.edu.cn;

    郝晨,硕士研究生,主要研究方向为复杂过程建模与智能优化控制方法。E-mail:haochen@emails.bjut.edu.cn.

    通讯作者:

    严爱军. E-mail:yanaijun@bjut.edu.cn.

  • 中图分类号: TP183

Stochastic configuration networks based on mixed distribution weighted M-estimation and adaptive regularization

More Information
  • 摘要: 为提升随机配置网络(stochastic configuration networks, SCNs)的鲁棒性和泛化性,提出了一种基于混合分布加权M估计和自适应正则化的SCN建模方法。采用高斯和柯西混合分布加权M估计获得训练样本的惩罚权重,根据训练数据对模型的贡献度评估其输出权重,以增强模型鲁棒性;根据建模残差变化情况和隐节点数分配合适的L2正则化参数,以保证模型具有较好的泛化性。通过4个标准数据集和城市固废焚烧过程的历史数据对该方法的性能进行实验测试。实验结果表明,基于本文所提方法构建的参数模型在鲁棒性和泛化性上相对于其他对比方法具有优势,从而拓宽了SCN的应用范围。

     

    Abstract: To enhance the robustness and generalization capability of stochastic configuration networks (SCNs), this paper proposes a novel SCN modeling method based on mixed-distribution weighted M-estimation and adaptive regularization. First, a Gaussian–Cauchy mixed-distribution weighted M-estimation is employed to determine the penalty weights of training samples, and the output weights of the model are evaluated according to the contribution of each training instance, thereby improving model robustness. Second, an adaptive L2 regularization parameter is assigned based on the variation of modeling residuals and the number of hidden nodes, ensuring that the model maintains good generalization. Finally, the effectiveness of the proposed method is empirically validated using four benchmark datasets and historical data from municipal solid waste incineration processes. Experimental results demonstrate that the parameter models developed using the proposed method outperform comparative methods in both robustness and generalization, thereby broadening the application scope of SCNs.

     

  • 随着人工智能技术的兴起,以人工神经网络(articifial neural network, ANN)为代表的机器学习算法受到了学术界的广泛关注,在图像识别[1]、工业过程预测建模[2]等领域得到了广泛的应用。结合随机学习技术[3]和随机权神经网络[4],Pao等[5]提出了一种随机向量函数链(random vector functional link, RVFL)网络,其对输入层至隐含层之间的权重和偏差采用随机化方式分配,极大地简化了网络训练过程。然而,文献[6]指出,RVFL随机分配输入权重和偏置使得其不具备万能逼近性。为了解决上述问题,Wang等[7]提出了依赖训练数据集的随机参数选择监督机制,以隐含层神经元递增的方式自适应快速构建具有万能逼近性质的随机配置网络(stochastic configuration networks, SCNs)模型,由于其学习效率高,逼近能力强等优点,已被广泛应用于研磨粒度估计[8]、污水处理[9]等工业过程参数建模领域。

    然而,在SCN的建模过程中,存在两方面的因素影响模型的鲁棒性和泛化性:1)训练样本的惩罚权重估计。在工业过程的数据采集过程中,传感器易受设备故障、人为干扰等因素影响,采集数据存在不同程度的噪声和异常值[10],从而降低模型的准确性。针对该问题,M估计是增强模型鲁棒性常用的方法。文献[11-12]将高斯核函数分别引入RVFL和SCN,采用M估计和核密度估计相结合的方法为每个训练样本设置输出权值,以减少噪声对模型的负面影响;文献[13]将高斯加权M估计引入RVFL,取得了较好的效果;文献[14]采用最大相关熵准则评估训练样本的惩罚权重,削弱了训练过程中异常值噪声数据产生的影响;文献[15]采用基于Huber和基于四分位距的M估计设置惩罚权值,并分别给出了鲁棒建模方法;文献[16]采用柯西分布加权M估计为训练样本设置输出权值,使得模型鲁棒性能有所提升。然而,上述文献采用的权函数形式较为单一,在面对复杂数据或异常值占比较高的数据时,可能不具备较好的鲁棒性;2)正则化策略。随着隐节点数量的增加,模型会变得更复杂,可能导致模型在有限的数据中学习到噪声特征,从而影响模型的泛化性能。对此,采用一定的正则化策略,有助于提高模型的泛化性能。常用的正则化方法有L2、弹性网[17]、Dropout[18]正则化等。文献[19]提出了一种简约SCN,将L1正则化引入到SCN,并建立了一个新的不等式约束条件,有效简化了模型结构且增强了模型的泛化性;文献[20]提出了一种基于弹性网络的分布式正则化SCN,并通过实验表明了该方法在准确性方面的相对优势;文献[21]结合L2正则化技术提出了一种新的SCN算法,降低了模型结构风险,提升了模型精度和泛化能力。然而,上述方法采用的正则化参数均为固定值,虽然可以保证训练过程的稳定,但固定的正则化参数无法适应训练过程中模型性能的变化,限制了模型的泛化性能。

    基于上述研究,针对训练样本的惩罚权重估计和正则化策略问题,本文提出一种基于混合分布加权M估计和自适应正则化(mixed distribution weighted M estimation and adaptive regularization, MM-AR)的随机配置网络建模方法,主要工作包括:1)根据混合分布能够更加灵活适应复杂数据的特性,采用混合分布加权M估计评估训练样本的惩罚权重;2)针对SCN构建隐含层神经元过程中模型性能的未知性和动态变化,构造了一种参数自适应的L2正则化项到SCN模型中,可以根据模型在训练过程中的表现和模型的当前节点数适当分配正则化参数,增强灵活性的同时提高了模型的泛化性。最后通过实验证明了该方法的有效性。

    SCN是一种增量式快速建模方法,其网络结构由一个隐含层节点开始,采用监督机制随机配置隐节点的输入权重和偏置,逐渐增加隐节点个数,直到达到预设条件,完成网络配置[7]。SCN的构建过程可以表示如下:

    对于目标函数$f:{{\bf{R}}^d} \to {{\bf{R}}^m}$,给定数据集$D = ({\boldsymbol{X}},{\boldsymbol{Y}}) =\{ ({{\boldsymbol{x}}_i},{{\boldsymbol{y}}_i}) \in {{\bf{R}}^d} \times {{\bf{R}}^m}\} $,假设已经构造了L−1个隐节点,则此时网络输出可以表示为

    $$ {f_{L - 1}}({\boldsymbol{X}};{\boldsymbol{\beta }}) = \sum\limits_{j = 1}^{L - 1} {{\beta _j}} {g_j}({\boldsymbol{w}}_j^{\text{T}}{\boldsymbol{X}} + {b_j}) $$

    式中:βj$ {g_j}( \cdot ) $wjbj分别表示隐含层第j个节点的输出权重、激活函数、输入权重和偏置;${f_{L - 1}}$为当前模型输出。

    计算当前网络残差向量:

    $$ {{\boldsymbol{e}}_{L - 1}} = f - {f_{L - 1}}({\boldsymbol{X}}) = [{{\boldsymbol{e}}_{L - 1,1}}({\boldsymbol{X}}), \cdots ,{{\boldsymbol{e}}_{L - 1,M}}({\boldsymbol{X}})] $$

    如果$\parallel {{\boldsymbol{e}}_{L - 1}}{\parallel ^2}$未达到预设误差ε或模型未达到最大节点数Lmax,则增加第L个隐节点。

    $$ \begin{split} &{{\boldsymbol{h}}_L} = {[{g_L}({\boldsymbol{w}}_L^{\text{T}}{{\boldsymbol{x}}_1} + {{\boldsymbol{b}}_L}),{g_L}({\boldsymbol{w}}_L^{\text{T}}{{\boldsymbol{x}}_2} + {{\boldsymbol{b}}_L}), \cdots ,{g_L}({\boldsymbol{w}}_L^{\text{T}}{{\boldsymbol{x}}_N} + {{\boldsymbol{b}}_L})]^{\text{T}}} \\ &\qquad\qquad\qquad\qquad\quad {{\boldsymbol{h}}_L} \in {{\bf{R}}^N} \\ \end{split} $$ (1)
    $$ {\xi _{L,q}} = \frac{{{{({\boldsymbol{e}}_{L - 1,q}^{\text{T}} \cdot {{\boldsymbol{h}}_L})}^2}}}{{{\boldsymbol{h}}_L^{\text{T}}{{\boldsymbol{h}}_L}}} - (1 - r - {\mu _L}){\left\| {{{\boldsymbol{e}}_{L - 1,q}}} \right\|^2} $$ (2)

    根据式(2)监督机制确定其输入权重和偏置。式中:q=1,2,···,mhL表示隐节点L的输出;wLbL分别表示节点L的候选参数,$r \in (0,1)$$\{ {\mu _L}\} $表示非负实数序列,其中$\mu_L \leq 1-r, \lim \limits_{L \rightarrow+\infty} \mu_L=0$;满足${\xi _L} = \displaystyle\sum\limits_{q = 1}^\infty {{\xi _{L,q}}} \geqslant 0$最大值的候选节点参数作为第L个节点参数。

    计算隐含层输出权重:

    $$ {\boldsymbol{\beta }} = \mathop {\arg \min }\limits_{\boldsymbol{\beta }} {\left\| {{\boldsymbol{H\beta }} - {\boldsymbol{Y}}} \right\|^2} = {{\boldsymbol{H}}^\dagger }{\boldsymbol{Y}} $$

    式中:${{\boldsymbol{H}}^\dagger }$表示H的摩尔−彭若斯(Moore-Penrose)广义逆,${\boldsymbol{H}} = [{{\boldsymbol{h}}_1}\;\;\;{{\boldsymbol{h}}_2}\;\;\;\cdots\;\;\;{{\boldsymbol{h}}_L}]$

    最后计算网络输出结果f

    $$ {\boldsymbol{f}}={\boldsymbol{H\beta}} $$

    SCN在面对复杂数据或具有异常值的数据样本时的鲁棒性和泛化性可能会受到影响,尽管传统的M估计、正则化等算法能够改善模型性能,但仍然具有一定局限性:

    1) 传统M估计的权函数对异常值敏感度较高。在处理大规模数据时,Huber、Tukey、Gaussian等常用的权函数由于形式较为单一,缺乏足够的灵活性适应数据变化,限制了模型捕捉复杂数据关系的能力。在数据中包含异常值时,可能无法较好拟合数据分布情况,模型的鲁棒性会受到较大影响。因此,选择合适的权函数以减少异常值对模型性能的影响仍需进一步研究。

    2) 固定的正则化系数无法适应所有训练阶段的需求。传统的L2正则化通过在损失函数中增加惩罚项,对模型的泛化性具有一定改善。然而,固定正则化系数不根据模型在训练过程中的表现进行调整,无法适应训练不同阶段的变化,限制了正则化对模型泛化性能的改善效果。因此,如何在训练过程中根据模型性能分配合适的正则化参数仍需进一步研究。

    M估计[22]是一种常用的抗差估计方法,其核心思想是通过最小化一个特定的目标函数来估计模型参数,能够通过训练样本对模型的贡献评估训练样本的惩罚权重,从而提高模型的鲁棒性。

    在标准SCN中,输出权重β和实际输出Y可以表示为

    $$ {\boldsymbol{\beta }} = [{\beta _1}\;\;\;{\beta _2}\;\;\; \cdots \;\;\;{\beta _L}]_{}^{\text{T}},{\boldsymbol{Y}} = {[{y_1}\;\;\;{y_2}\;\;\; \cdots \;\;\;{y_N}]^{\text{T}}} $$

    由第1节可得,β通过最小化获得:

    $$\boldsymbol{\beta}=\arg \min _{\boldsymbol{\beta}} \sum_{i=1}^N\left(\boldsymbol{H}_i \boldsymbol{\beta}-y_i\right)^2$$ (3)

    式中:损失函数J(ri)和残差ri分别表示为

    $$ \begin{array}{*{20}{c}} {J({r_i}) = r_i^2} \\ {{r_i}({\boldsymbol{\beta }}) = {{\boldsymbol{H}}_i}{\boldsymbol{\beta }} - {y_i}} \end{array} $$ (4)

    在M估计中,引入新的残差目标损失函数$\rho ({r_i})$,此时式(3)变为

    $$ {{\hat {\boldsymbol{\beta}} }} = \mathop {\arg \min }\limits_{\boldsymbol{\beta }} \sum\limits_{i = 1}^N \rho ({{\boldsymbol{H}}_i}{\boldsymbol{\beta }} - {y_i}) = \mathop {\arg \min }\limits_{\boldsymbol{\beta }} \sum\limits_{i = 1}^N \rho ({r_i}({\boldsymbol{\beta }})) $$

    为减弱数据样本中异常值的影响,引入稳健尺度估计量$\hat \sigma $将残差标准化,此时${{\hat {\boldsymbol{\beta}} }}$可表示为

    $$ {{\hat {\boldsymbol{\beta}} }} = \mathop {\arg \min }\limits_{\boldsymbol{\beta }} \sum\limits_{i = 1}^N \rho \left(\frac{{{r_i}({\boldsymbol{\beta }})}}{{\hat \sigma }}\right) $$ (5)

    式(5)中引入的稳健尺度估计量提供了一个对异常值不敏感的尺度度量,通过重新缩放残差,使异常值的影响被限制在一定范围内。具体地,$\hat \sigma $使用中位数绝对偏差(median absolute deviation, MAD)定义,即

    $$ \hat \sigma = \frac{{{r_{{\mathrm{MAD}}}}}}{{0.6745}},{r_{{\mathrm{MAD}}}} = {\mathrm{median}}(\left| {{r_i} - {\mathrm{median}}({r_i})} \right|) $$

    MAD是统计离散度的度量,是一种稳健的度量方法,适用于包含异常值或极端值的数据集[23]。MAD还具有非参数性,这使得它适用于各种类型的数据分布。

    式(5)中,令$\dfrac{{\partial \displaystyle\sum\limits_{i = 1}^N \rho \left(\dfrac{{{{\boldsymbol{H}}_i}{\boldsymbol{\beta }} - {y_i}}}{{\hat \sigma }}\right)}}{{\partial {\boldsymbol{\beta }}}} = 0$,可以得到:

    $$\sum_{i=1}^N \rho^{\prime}\left(\frac{\boldsymbol{H}_i \boldsymbol{\beta}-y_i}{\hat{\sigma}}\right) \boldsymbol{H}_i^{\mathrm{T}}=0$$ (6)

    为实现模型对数据样本的差异化处理,使得每个数据样本的权重根据其残差大小,即对模型的贡献度进行分配,定义权重因子:

    $$ p({r_i}) = \rho '\left(\frac{{{r_i}}}{{\hat \sigma }}\right)/{r_i} $$ (7)

    则式(6)可以重写为

    $$\sum_{i=1}^N p\left(\frac{\boldsymbol{H}_i \boldsymbol{\beta}-y_i}{\hat{\sigma}}\right) \times\left(\boldsymbol{H}_i \boldsymbol{\beta}-y_i\right) \boldsymbol{H}_i^{\mathrm{T}}=0$$ (8)

    整理成矩阵形式:

    $$ {{\boldsymbol{H}}^{\text{T}}}{\boldsymbol{PH\beta }} = {{\boldsymbol{H}}^{\text{T}}}{\boldsymbol{PY}} $$ (9)

    式中:P是惩罚权重矩阵,${\boldsymbol{P}} = {\mathrm{diag}}\left\{ {{p_i}} \right\}$i=1, 2,···,NN为数据样本数量,$ {p_i}( \cdot ) $为权函数,表示第i个样本的惩罚权重。

    式(9)中的惩罚权重矩阵P由每个样本点的惩罚权重$ {p_i}( \cdot ) $组成,其中,$ {p_i}( \cdot ) $为权函数,其选择是M估计的重要环节。一个合适的权函数不仅影响模型的鲁棒性,而且会影响模型的计算效率。常用的权函数包括Huber权函数、Hampel权函数和Tukey双权法权函数[24]等。

    考虑到高斯分布的对称性和有限的方差,使其非常适合描述在均值附近集中的数据。在数据中异常值比例较低的情况下,高斯分布更加稳定可靠。而柯西分布具有无限的方差和重尾特性,这使得柯西分布在面对异常值比例较高的数据样本时更加稳健。因此,采用混合分布加权函数作为M估计的目标函数,根据异常值的比例适当地调整权重系数,可以使得模型对于异常值比例较高还是较低的数据样本,都具有较好的鲁棒性。

    基于以上分析,本文拟采用高斯函数和柯西分布概率密度函数的加权函数作为M估计的权函数。

    $$ p(a) = \tau N(a;{\mu _1},{\sigma _1}) + (1 - \tau )C(a;{\mu _2},{\sigma _2}) $$

    式中:τ为权重,其值受异常值比例的影响;$N(a;{\mu _1}, {\sigma _1})$为均值μ1、标准差σ1的高斯函数;$C(a;{\mu _2},{\sigma _2})$为位置参数μ2、尺度参数σ2的柯西分布的概率密度函数。高斯分布的概率密度函数的表达式为

    $$ N(a,{\mu _1},{\sigma _1}) = \frac{1}{{\sqrt {2{\text{π}} } {\sigma _1}}}\exp \left(\frac{{{{\left( {a - {\mu _1}} \right)}^2}}}{{2{\sigma _1}^2}}\right) $$

    柯西分布的概率密度函数的表达式为

    $$ C(a;{\mu _2},{\sigma _2}) = \frac{1}{{{\text{π}} {\sigma _2}\left[1 + {{\left(\dfrac{{a - {\mu _2}}}{{{\sigma _2}}}\right)}^2}\right]}} $$

    在高斯分布和柯西分布中,μ1μ2分别为对应分布的中心,也是定义分布峰值的参数;σ1σ2分别决定了对应分布的分散程度,其值越大,数据点越分散,分布越宽。为简化表述,将高斯分布的均值μ1和柯西分布的位置参数μ2统一定义为μ,将高斯分布的标准差σ1和柯西分布的尺度参数σ2统一定义为σ

    基于上述分析得知,如何根据残差的分布确定参数是构造加权函数的重要内容:

    1) μ的确定:由于加权的目的是协调异常值带来的影响,因此μ应取标准化残差${r_i}{\text{/}}\hat \sigma $的中间值,即

    $$ \mu = {\mathrm{median}}({r_i}/\hat \sigma ) $$

    2) σ的确定:σ决定了分布图像的形状特性,它的值应根据建模误差分布的统计特性来确定。若建模误差分布较窄,则σ的值应较大;否则,σ应较小。因此,σ应取标准化残差的标准差的倒数。即

    $$ \sigma = 1\bigg/\sqrt {\sum\limits_{i = 1}^N {{{\left\| {{r_i}/\hat \sigma - \sum\limits_{i = 1}^N {({r_i}/\hat \sigma )/N} } \right\|}^2}/N} } $$

    正则化是防止模型过拟合,增强模型泛化能力的常用方法,其中正则化参数的选择是提升模型性能的关键。根据文献[25]中提出的“早停策略”,本节提出了一种参数自适应正则化的算法,其基本思想是根据模型训练过程中残差的变化情况以及模型当前节点数分配合适的正则化参数,算法如下。

    在式(4)所示的损失函数中引入L2正则化项,输出权重的计算公式变为

    $$\hat{\boldsymbol{\beta}}=\arg \min _{\boldsymbol{\beta}}\left(\|\boldsymbol{H} \boldsymbol{\beta}-\boldsymbol{Y}\|_2^2+\alpha\|\boldsymbol{\beta}\|_2^2\right)$$ (10)

    根据2.1节,在式(10)中引入M估计后转化为

    $$\hat{\boldsymbol{\beta}}=\arg \min _{\boldsymbol{\beta}}\left(\sum_{i=1}^N \rho\left(\boldsymbol{H}_i \boldsymbol{\beta}-y_i\right)+\alpha\|\boldsymbol{\beta}\|_2^2\right)$$

    $\dfrac{\partial\left(\displaystyle\sum_{i=1}^N \rho\left(\boldsymbol{H}_i \boldsymbol{\beta}-y_i\right)+\alpha\|\boldsymbol{\beta}\|_2^2\right)}{\partial \boldsymbol{\beta}}=0$,根据式(6)~(9),可得:

    $$ {\boldsymbol{\beta }} = {({{\boldsymbol{H}}^{\text{T}}}{\boldsymbol{PH}} + \alpha {\boldsymbol{I}})^\dagger }({{\boldsymbol{H}}^{\text{T}}}{\boldsymbol{PY}}) $$

    式中α为正则化参数。在SCN中,模型的性能受模型复杂度等多方面的影响。令正则化参数${\alpha _L} = cf({{\boldsymbol{e}}_L},{{\boldsymbol{e}}_{L - 1}},L)$,其中c为常数,L为当前节点数,eL为增加第L个节点时的残差,$f({{\boldsymbol{e}}_L},{{\boldsymbol{e}}_{L - 1}},L)$表示和$e_L、e_{L-1}、L $有关的函数。

    定义一个中间量δL

    $$ {\delta _L} = \frac{{\left\| {{{\boldsymbol{e}}_L}} \right\|_2^2}}{{\left\| {{{\boldsymbol{e}}_{L - 1}}} \right\|_2^2}} $$

    δL很小时,说明模型残差变化率较大,此时不需要过多的正则化干预;当δL保持过大时,说明模型性能在一定训练周期内没有显著提升,继续训练有可能会使模型泛化性降低,此时需要适当增大正则化参数。此外,随着隐含层节点L的增加,模型会更复杂,进而更容易面临过拟合的风险[26],因此正则化参数应随着L的增加而适当增大。

    基于以上分析,并根据测试,本文拟采用函数$f({{\boldsymbol{e}}_L},{{\boldsymbol{e}}_{L - 1}},L) = f\left( {{\delta _L},L} \right) = \dfrac{1}{{1 - {\delta _L}}} + L$作为正则化参数的自适应函数。为方便调整参数,引入两个非负常数项c1c2,将正则化参数重新定义为

    $$ {\alpha _L} = \frac{{{c_1}}}{{1 - {\delta _L}}} + {c_2}L $$

    在训练后期,残差变化率会越来越小,这会导致正则化参数αL过大,从而影响模型的整体性能,经过测试,采用对数函数将αL控制在较小范围内。

    $$ {\alpha _L} = {c_1}\ln \left(\frac{1}{{1 - {\delta _L}}} + 1\right) + {c_2}L $$

    最后,采用交替优化策略[7]交替更新输出权值w和惩罚权重β,交替优化的迭代表达式:

    $$ \begin{gathered} w_j^{(k + 1)} = \tau \frac{1}{{\sqrt {2{\text{π}} } \sigma }}\exp \left(\frac{{{{\left( {{\boldsymbol{e}}_j^{(k)} - \mu } \right)}^2}}}{{2{\sigma ^2}}}\right) +\\ (1 - \tau )\frac{1}{{{\text{π}} \sigma \left[1 + {{\left(\dfrac{{{\boldsymbol{e}}_{_j}^{(k)} - \mu }}{\sigma }\right)}^2}\right]}} \\ \end{gathered} $$ (11)
    $$ {{\boldsymbol{\beta }}^{(k + 1)}} = {\left( {{{\boldsymbol{H}}^{\text{T}}}{{\boldsymbol{P}}^{\left( {k + 1} \right)}}{\boldsymbol{H}} + \alpha {\boldsymbol{I}}} \right)^\dagger }{{\boldsymbol{H}}^{\text{T}}}{{\boldsymbol{P}}^{\left( {k + 1} \right)}}{\boldsymbol{Y}} $$ (12)

    式中:k表示迭代次数;当惩罚权重β的变化率满足如下不等式时:

    $$ \mathop {\max }\limits_j \left| {\frac{{\beta _j^{(k)} - \beta _j^{(k + 1)}}}{{\beta _j^{(k + 1)}}}} \right| < \varepsilon $$ (13)

    停止迭代同时模型训练结束。在式(13)中,j=1,2,…;ε表示趋于0的正数,此处取10−3

    2.4.1   时间复杂度分析

    在上述混合分布加权M估计算法以及自适应正则化算法中,对每个训练样本分别计算残差和权重以及根据模型的残差变化调整正则化参数,该部分时间复杂度为

    $$ O(N \times T) + O(L \times T) $$ (14)

    式中:N是训练样本数量,T是迭代次数,L是隐含层节点数量。

    在网络训练中,模型训练的时间复杂度为

    $$ O(N \times L \times T) $$ (15)

    交替优化更新输出权值和惩罚权重的时间复杂度为

    $$ O(N \times L \times A) $$ (16)

    式中$A $是交替优化的迭代次数。

    结合式(14)~(16),可得MM-AR-SCN的总时间复杂度为

    $$ O(N \times T) + O(L \times T) + O(N \times L \times T) + O(N \times L \times A) $$

    式中:由于$T $$A $通常为常数,可以将它们合并为一个常数因子并简化,因此总时间复杂度可以简化为

    $$ O(N \times L) $$

    综上可得,MM-AR-SCN算法尽管引入了额外的计算步骤,但这些步骤的复杂度与训练过程中的迭代次数T和交替优化次数$A $在一定程度上成正比,因此本文提出的算法的时间复杂度仍然保持在与传统SCN一致的量级,即$O(N \times L)$

    2.4.2   空间复杂度分析

    在上述混合分布加权M估计以及自适应正则化算法中,模型存储每个训练样本的残差和权重以及存储正则化参数的空间复杂度为

    $$ O(N) + O(L) $$ (17)

    由于每个隐节点有d+1个参数(输入权重和偏置),总共有L个隐节点,因此该部分空间复杂度为

    $$ O(L \times (d + 1)) $$ (18)

    隐含层输出矩阵的大小为N×L,因此该部分空间复杂度为

    $$ O(N \times L) $$ (19)

    输出权重的大小为L×m,因此该部分空间复杂度为

    $$ O(L \times m) $$ (20)

    式中m为输出层的维度。

    结合式(17)~(20),可得MM-AR-SCN的空间复杂度为

    $$ O(N) + O(L) + O(L \times (d + 1)) + O(N \times L) + O(L \times m) $$

    与传统SCN相比,MM-AR-SCN的空间复杂度仅增加了存储残差权重以及正则化参数的空间需求,但这些额外的空间需求较小,对空间复杂度的增加没有显著影响。

    基于上述关于算法实现的介绍,MM-AR-SCN算法的伪代码为:

    1)输入数据集D={X,Y},其中X=[x1 x2 … xN]∈RN×dxi=[xi,1 xi,2 … xi,d]TRdY=[y1 y2 … yN]∈RN×1;隐含层最大节点数Lmax,最大配置次数Tmax;容忍误差ε;隐含层参数搜索范围;最大迭代次数Amax$\varUpsilon = \left[ {{\lambda _{\min }}:\Delta \lambda :{\lambda _{\max }}} \right]$

    2)参数初始化:令e0= [y1 y2 … yN]T;正则化参数α=0; Ω = [];W = [];随机参数$\varUpsilon $

    3)While AAmax and ε0 > ε Do

    4)While LLmax and ||e0||F > ε Do

    5)For $\lambda \in \varUpsilon $ Do

    6)For k = 1,2,…,Tmax Do

    7)从区间$[ - \lambda ,\lambda ]$中随机分配wjbj;根据式(1)~(2)计算${\boldsymbol{h}}_L^*,{\xi _{L,q}}$,并设置${\mu _L} = (1 - r)/(L + 1)$

    8)if $\min ({\xi _{L,1}},{\xi _{L,2}},\cdots,{\xi _{L,m}}) \geqslant 0$

    9)将wjbj存入W中,将${\xi _L} = \displaystyle\sum\limits_{q = 1}^m {{\xi _{L,q}}} $存入Ω中;

    10)Else 返回6)

    11)End if (步骤8)

    12)End for (步骤6)

    13)if W非空 Do

    14)在Ω中找到使${\xi _L}$最大的${\boldsymbol{w}}_j^*,b_j^*$,设置${{\boldsymbol{H}}_L} = [{\boldsymbol{h}}_1^*\quad{\boldsymbol{h}}_2^*\quad \cdots \quad{\boldsymbol{h}}_L^*]$;跳转到18);

    15)End if (步骤13)

    16)End for (步骤5)

    17)根据式(10)计算β, ${{\boldsymbol{e}}_L} = {{\boldsymbol{H}}_L}{\boldsymbol{\beta }} - {\boldsymbol{Y}}$;

    18)更新e0=eLL=L+1;

    19)End While (步骤4)

    20)根据式(11)和(12)交替优化惩罚权重矩阵W和输出权值βA = A+1;

    21)End While (步骤3)

    22)输出MM-AR-SCN模型。

    为方便表述,将基于核密度估计(kernel density estimation, KDE)的SCN记作KDE-SCN[12],将基于最大相关熵准则(maximum correntropy criterion, MCC)的SCN记作MCC-SCN[14],将基于L1正则化的简约(parsimonious)SCN记作PSCN[19],将基于弹性网(elastic net, EN)的SCN记作EN-SCN[20],并设计了对比实验:将本文所提方法与SCN[7]以及上述改进SCN算法分别进行鲁棒性和泛化性对比;具体数据信息见表1

    表  1  数据集信息
    Table  1  Data set information
    编号数据集名称样本总数输入/输出维度
    1stock9509/1
    2treasury104915/1
    3Concrete10308/1
    4Compactiv100021/1
    5MSWI历史数据100061/1

    在鲁棒性对比实验中,随机选择60%的样本作为训练集,20%的样本作为测试集,20%的样本作为验证集。在泛化性对比实验中,随机选择40%的样本作为训练集,40%的样本作为测试集,20%的样本作为验证集。所有的数据均归一化至[0,1]区间。所有的仿真实验所用的计算机CPU型号为 Intel(R) Core (TM) i5-8300H,内存为4 GB。

    采用均方根误差$e_{\mathrm{RMSE}} $(root mean square error, RMSE)和平均绝对误差$e_{\mathrm{MAE}} $(mean absolute error,MAE)作为评价指标:

    $${e_{{\mathrm{RMSE}}}} =\sqrt{ \sum\limits_{i = 1}^N {({y_i} - {{\hat y}_i})} /N}$$ (21)
    $$ {e_{{\mathrm{MAE}}}} = \left(\sum\limits_{i = 1}^N {|{y_i} - {{\hat y}_i}|} \right)/N $$ (22)

    式中:yi表示样本输出的实际值,${\hat y_i}$表示模型的预测值,N表示样本数量。为了避免随机性对实验结果的影响,所有实验重复执行50次,在鲁棒性对比实验中,给出均值(mean)和标准差(std)以验证模型的鲁棒性能和稳定性;在泛化性对比实验中,给出模型在训练集和测试集上的误差对比以验证模型的泛化性能。

    所有模型的激活函数均为Sigmoid函数;参数设置为:所有方法最大隐节点数量Lmax=100,最大配置次数Tmax=100,训练预期误差ε=10−3,交替方向乘子法(alternating direction method of multipliers,ADMM)最大迭代次数TADMM =20,交替优化方法中最大循环次数Amax=10,隐含层参数搜索范围[−λ,+λ]=[−5,+5];其余参数见表2所示,其中,α、λENλP均为正则化参数,ρ为拉格朗日系数;所有超参数均由验证集得出。

    表  2  参数设置
    Table  2  Parameter setting
    数据集 MM- AR-SCN EN-SCN PSCN
    τ0 τoutlier c1 c2 α λEN ρ λP
    stock 0.85 0.74,0.68,0.27,0.20 0.001 0.005 0.005 0.001 0.001 0.05
    treasury 0.90 0.85,0.50,0.15,0.05 0.001 0.005 0.005 0.001 0.001 0.05
    Concrete 0.68 0.60,0.55,0.30,0.11 0.001 0.005 0.005 0.001 0.001 0.05
    Compactiv 0.72 0.82,0.65,0.30,0.15 0.001 0.005 0.005 0.001 0.001 0.05
    MSWI历史数据 0.50 0.45,0.30,0.25,0.12 0.005 0.010 0.010 0.005 0.005 0.10
    3.2.1   鲁棒性对比

    采用4个KEEL(kedige of evlovtionary learning)标准数据集对上述方法的鲁棒性能进行验证,在训练样本中随机选取比例ζ = {5%, 10%, 20%, 30%}的样本,并将这些样本的输出进行异常化处理,具体处理方式为

    $$ {y_{i,{\mathrm{outlier}}}} = {y_i} + {\mathrm{sign}} \times {\mathrm{rand}}(0,1) $$

    式中:yiyi,outlier分别表示输出数据的真实值和处理后的异常值,rand(0,1)表示(0,1)之间的随机数,为使数据分布更加不平衡,正偏差异常值(sign=1)和负偏差异常值(sign=−1)的比例设置为2∶1,观察不同方法在处理包含不同比例异常样本数据的效果。

    实验结果如表3表4所示,通过表3表4得到,随着样本中异常值比例的提升,本文所提算法的误差相较于其他鲁棒算法均处于较低水平,这表明了本文所提方法的有效性。

    表  3  标准数据集下各种方法的RMSE比较
    Table  3  RMSE comparison of various methods under standard datasets
    编号 ζ/% mean,std
    SCN KDE-SCN MCC-SCN MM-SCN MM-AR-SCN
    Data1 5 0.05510.0021 0.04220.0028 0.04190.0026 0.03530.0015 0.03510.0012
    10 0.08270.0047 0.04530.0065 0.04480.0033 0.03790.0043 0.03750.0032
    20 0.09150.0051 0.04550.0015 0.04320.0019 0.03650.0018 0.03510.0018
    30 0.10970.0048 0.05270.0038 0.05120.0036 0.04110.0027 0.04220.0025
    Data2 5 0.03620.0046 0.01240.0008 0.01210.0011 0.01090.0064 0.01060.0071
    10 0.04030.0071 0.01460.0007 0.01410.0011 0.01290.0009 0.01270.0010
    20 0.03710.0031 0.01430.0006 0.01490.0013 0.01220.0011 0.01210.0012
    30 0.04880.0061 0.02110.00013 0.02070.0012 0.01540.0031 0.01500.0026
    Data3 5 0.09520.0033 0.07360.0045 0.07270.0042 0.06150.0037 0.06070.0028
    10 0.10240.0038 0.07540.0041 0.07910.0055 0.06360.0043 0.06200.0042
    20 0.11740.0038 0.07210.0033 0.07200.0036 0.06310.0036 0.06110.0028
    30 0.13240.1324 0.08790.1079 0.08660.1066 0.07440.1044 0.07030.1063
    Data4 5 0.08670.0098 0.06990.0072 0.06830.0135 0.05990.0082 0.05730.0075
    10 0.09240.0101 0.07930.0085 0.09560.0144 0.06790.0145 0.06690.0103
    20 0.11910.0149 0.08110.0101 0.07940.0107 0.06590.0129 0.06350.0099
    30 0.13960.0156 0.09340.0255 0.09260.0331 0.08470.0269 0.08330.0102
    注:加黑数字为最优结果。
    表  4  标准数据集下各种方法的MAE比较
    Table  4  MAE comparison of various methods under standard datasets
    编号 ζ/% mean,std
    SCN KDE-SCN MCC-SCN MM-SCN MM-AR-SCN
    Data1 5 0.04390.0016 0.03380.0019 0.03250.0013 0.02680.0011 0.02660.0009
    10 0.05990.0028 0.03490.0022 0.03650.0016 0.02730.0017 0.02690.0017
    20 0.06920.0035 0.03470.0013 0.03290.0014 0.02710.0014 0.02590.0015
    30 0.08660.0036 0.03850.0025 0.03770.0023 0.03010.0016 0.02990.0014
    Data2 5 0.02140.0016 0.00780.0003 0.00750.0004 0.00540.0015 0.00510.0013
    10 0.03110.0031 0.00840.0005 0.00780.0004 0.00600.0005 0.00560.0005
    20 0.03080.0023 0.00820.0004 0.00750.0004 0.00690.0005 0.00670.0006
    30 0.04710.0042 0.0163,0.007 0.01610.0008 0.01090.0011 0.0106,00010
    Data3 5 0.08250.0023 0.06970.0029 0.06900.0029 0.06400.0025 0.06290.0024
    10 0.08450.0027 0.06910.0023 0.06540.0027 0.06230.0029 0.06160.0024
    20 0.09190.0026 0.06390.0021 0.06780.0024 0.05490.0025 0.05450.0021
    30 0.10170.0034 0.08540.0032 0.07370.0034 0.06500.0038 0.06450.0042
    Data4 5 0.04620.0032 0.03730.0027 0.03690.0031 0.03640.0027 0.03950.0029
    10 0.05280.0034 0.03920.0032 0.03400.0031 0.02930.0034 0.02900.0036
    20 0.07440.0059 0.05180.0072 0.04980.0037 0.04080.0036 0.03950.0051
    30 0.09720.0060 0.05480.0058 0.05510.0043 0.04160.0051 0.03870.0031
    注:加黑数字为最优结果。
    3.2.2   泛化性对比

    采用4个KEEL标准数据集对上述方法的泛化性能进行对比,观察不同方法在训练集和测试集上的效果,结果如表5所示。通过表5可知,本文所提方法在训练集和测试集上均具有较低的误差水平,验证了该方法良好的泛化性。

    表  5  不同方法评价指标对比
    Table  5  Comparison of evaluation indexes of different methods
    数据集 评价指标 SCN PSCN EN-SCN AR-SCN MM-AR-SCN
    Data1 训练集 RMSE 0.0295 0.0290 0.0249 0.0257 0.0259
    MAE 0.0257 0.0233 0.0204 0.0179 0.0173
    测试集 RMSE 0.0454 0.0428 0.0395 0.0325 0.0342
    MAE 0.0359 0.0328 0.0268 0.0259 0.0271
    Data2 训练集 RMSE 0.0121 0.0138 0.0081 0.0069 0.0081
    MAE 0.0045 0.0086 0.0056 0.0045 0.0042
    测试集 RMSE 0.0189 0.0149 0.0121 0.0129 0.0132
    MAE 0.0078 0.0092 0.0075 0.0078 0.0076
    Data3 训练集 RMSE 0.0726 0.0697 0.0647 0.0606 0.0588
    MAE 0.0571 0.0459 0.0502 0.0472 0.0453
    测试集 RMSE 0.0864 0.0832 0.0853 0.0872 0.0715
    MAE 0.0662 0.0625 0.0632 0.0621 0.0602
    Data4 训练集 RMSE 0.0343 0.0387 0.0259 0.0244 0.0276
    MAE 0.0183 0.0182 0.0195 0.0184 0.0177
    测试集 RMSE 0.0624 0.0583 0.0469 0.0493 0.0479
    MAE 0.0402 0.0379 0.0239 0.0298 0.0224
    注:加黑数字为最优结果。

    图1为MM-AR-SCN算法训练过程中正则化参数随节点增加的变化情况与不同节点下测试集的误差变化曲线图,最大节点数分别为100、100、200、200。由图1可以得出,在训练后期,模型在训练集上的误差变化趋于稳定且模型节点数逐渐增多的时候,为避免模型出现过拟合现象,正则化参数也在适当增加,此时模型在测试集上的误差仍然处于较低水平,这说明了本文所改进正则化算法的有效性。

    图  1  不同数据集上正则化参数a和RMSE随节点数L增加的变化曲线
    Fig.  1  Variation curves of regularization parameters a and RMSE on different datasets as the number of nodes increases L
    下载: 全尺寸图片

    随着经济的快速发展和城市化的持续发展,全球城市固体废物(municipal solid waste, MSW)的产量一直在逐步增长[27],城市固废焚烧(municipal solid waste incineration, MSWI)是一种复杂的、非线性的物化反应过程[28]。在MSWI过程中,烟气含氧量是过氧空气系数的表征量,能够在一定程度上表征燃烧状态[29],是与焚烧效率和污染物排放密切相关的重要参数。如果烟气含氧量过低,则表明不完全燃烧热损失增加,燃烧效率下降的同时还会产生大量有毒有害气体;如果烟气含氧量过高,会增加燃料型NOx等污染物的排放[30]。因此,建立准确的烟气含氧量预测模型对于提高燃烧效率、减少污染物排放、实现该过程的平稳运行具有重要意义。

    实验数据来自2021年北京市某固废焚烧厂的1000条历史数据,数据信息如表1所示,实验参数设置如表2所示。采用式(21)所示的均方根误差和式(22)所示的平均绝对误差作为评价指标。

    3.3.1   鲁棒性对比

    本节为不同方法在城市固废焚烧过程烟气含氧量预测的鲁棒性对比,异常值引入方法与3.2节相同。观察不同方法在不同异常值比例下的误差情况。

    通过表6表7可以得出,当异常值比例ζ=20%时,MM-AR-SCN的RMSE和MAE相比SCN分别降低了26.04%和32.95%,这表明将M估计引入SCN算法能够在一定程度上改善模型的鲁棒性;此外,本文所提方法在不同异常值比例下均保持较好的鲁棒性,表明了该算法的有效性。

    表  6  MSWI历史数据下各种方法的RMSE比较
    Table  6  RMSE comparison of various methods under MSWI historical data
    ζ/% mean,std
    SCN KDE-SCN MCC- SCN MM- SCN MM-AR-SCN
    5 1.22130.0238 1.13080.0211 1.11890.0248 1.04750.0180 1.03220.0271
    10 1.43060.0237 1.22730.0256 1.23440.0221 1.09310.0348 1.06800.0432
    20 1.74080.0231 1.42940.0185 1.40680.0253 1.29580.0324 1.28740.0274
    30 1.78490.0240 1.42250.0363 1.42750.0364 1.31710.0317 1.30430.0373
    注:加黑数字为最优结果。
    表  7  MSWI历史数据下各种方法的MAE比较
    Table  7  MAE comparison of various methods under MSWI historical data
    ζ/% mean,std
    SCN KDE-SCN MCC- SCN MM- SCN MM-AR-SCN
    5 0.96950.0107 0.76740.0143 0.76510.0102 0.70310.0156 0.69890.0136
    10 1.17990.0139 0.77670.0175 0.78050.0137 0.69710.0206 0.71370.0260
    20 1.43710.0159 1.14600.0142 1.13290.0208 0.97940.0231 0.96360.0209
    30 1.68740.0173 1.32400.0188 1.32060.0176 1.18450.0252 1.18680.0201
    注:加黑数字为最优结果。
    3.3.2   泛化性对比

    本节为不同方法在城市固废焚烧过程烟气含氧量预测上的泛化性对比,观察不同方法在训练集和测试集的性能。

    表8给出了不同正则化方法在训练集和测试集上的RMSE和MAE对比;图2为MSWI历史数据正则化参数随训练过程变化的曲线图。

    表  8  不同方法评价指标对比
    Table  8  Comparison of evaluation indexes of different methods
    数据集 评价指标 SCN PSCN EN-SCN AR-SCN MM-AR-SCN
    MSWI
    历史数据
    训练集 RMSE 0.5872 0.6333 0.5647 0.4134 0.4331
    MAE 0.3927 0.4811 0.4295 0.3736 0.4059
    测试集 RMSE 0.8424 0.7026 0.6757 0.7272 0.6654
    MAE 0.5711 0.5256 0.4957 0.4753 0.4689
    注:加黑数字为最优结果。
    图  2  MSWI历史数据上正则化参数a和RMSE随节点数L增加的变化曲线
    Fig.  2  Variation curves of regularization parameters a and RMSE on the historical data of MSWI as the number of nodes increases L
    下载: 全尺寸图片

    通过表8可以看出,所有方法在训练集上的效果相似,然而本文提出的方法在测试集上效果更好,这说明将自适应正则化引入SCN在一定程度上改善了模型的泛化性,提升了模型在未知数据上的预测精度。

    表9给出了不同模型在处理烟气含氧量数据时运行时间对比结果。结合2.4节对模型的复杂度分析可得,MM-AR-SCN由于加入了混合分布加权M估计与自适应正则化算法,其额外计算量的增加使得MM-AR-SCN模型相对于SCN而言,在建模过程中所需的时间略微增加。

    表  9  不同模型运行时间对比
    Table  9  Comparison of running time of different models
    方法 SCN MM-SCN AR-SCN MM-AR-SCN
    时间/s 0.2057 0.2132 0.2112 0.2150

    为了更直观地显示MM-AR-SCN的拟合效果,给出如图3所示部分典型建模方法的烟气含氧量预测拟合曲线图。通过图3可以看出,相较于其他方法,本文提出的方法拟合效果更好,通过烟气含氧量的变化,准确观察焚烧效率,有助于城市固废焚烧过程运行优化控制的实现。

    图  3  不同方法的烟气含氧量拟合曲线
    Fig.  3  Fitting curves of flue gas oxygen content by different methods
    下载: 全尺寸图片

    为提升SCN的鲁棒性和泛化性,本文提出了一种采用混合分布加权M估计和自适应正则化的SCN建模方法(MM-AR-SCN),并通过实验说明了该方法的有效性。

    1)采用混合分布加权M估计评估输出权重。针对传统SCN中标准最小二乘法对异常值较为敏感的问题,采用混合分布加权M估计,根据每个样本对模型的贡献度为它们分别分配不同的输出权重,实现样本数据惩罚权重的合理分配,有效提高了SCN在包含异常数据的参数预测任务中的鲁棒性;

    2)提出了一种改进的L2正则化算法。该算法使正则化参数根据模型训练过程中残差的变化情况和节点数自适应分配,弥补了L2正则化缺乏灵活性,难以适应训练各阶段需求的不足,有效缓解了训练过程中可能出现的过拟合问题,在一定程度上改善了模型的泛化能力。

    实验结果表明,本文所提出的MM-AR-SCN方法相较于其他方法,在4个标准数据集和城市固废焚烧过程烟气含氧量预测实验上均表现出了较好的性能,表明了该算法具有更良好的鲁棒性和泛化性。

    然而,在实际工业过程中,建模数据中异常值的比例难以得知,从而导致权重参数很难确定。此外,所提建模方法中的一些超参数仍需手动调整。因此,对于数据样本异常值的分析处理和模型参数的自动优化是未来研究的重点。

  • 图  1   不同数据集上正则化参数a和RMSE随节点数L增加的变化曲线

    Fig.  1   Variation curves of regularization parameters a and RMSE on different datasets as the number of nodes increases L

    下载: 全尺寸图片

    图  2   MSWI历史数据上正则化参数a和RMSE随节点数L增加的变化曲线

    Fig.  2   Variation curves of regularization parameters a and RMSE on the historical data of MSWI as the number of nodes increases L

    下载: 全尺寸图片

    图  3   不同方法的烟气含氧量拟合曲线

    Fig.  3   Fitting curves of flue gas oxygen content by different methods

    下载: 全尺寸图片

    表  1   数据集信息

    Table  1   Data set information

    编号数据集名称样本总数输入/输出维度
    1stock9509/1
    2treasury104915/1
    3Concrete10308/1
    4Compactiv100021/1
    5MSWI历史数据100061/1

    表  2   参数设置

    Table  2   Parameter setting

    数据集 MM- AR-SCN EN-SCN PSCN
    τ0 τoutlier c1 c2 α λEN ρ λP
    stock 0.85 0.74,0.68,0.27,0.20 0.001 0.005 0.005 0.001 0.001 0.05
    treasury 0.90 0.85,0.50,0.15,0.05 0.001 0.005 0.005 0.001 0.001 0.05
    Concrete 0.68 0.60,0.55,0.30,0.11 0.001 0.005 0.005 0.001 0.001 0.05
    Compactiv 0.72 0.82,0.65,0.30,0.15 0.001 0.005 0.005 0.001 0.001 0.05
    MSWI历史数据 0.50 0.45,0.30,0.25,0.12 0.005 0.010 0.010 0.005 0.005 0.10

    表  3   标准数据集下各种方法的RMSE比较

    Table  3   RMSE comparison of various methods under standard datasets

    编号 ζ/% mean,std
    SCN KDE-SCN MCC-SCN MM-SCN MM-AR-SCN
    Data1 5 0.05510.0021 0.04220.0028 0.04190.0026 0.03530.0015 0.03510.0012
    10 0.08270.0047 0.04530.0065 0.04480.0033 0.03790.0043 0.03750.0032
    20 0.09150.0051 0.04550.0015 0.04320.0019 0.03650.0018 0.03510.0018
    30 0.10970.0048 0.05270.0038 0.05120.0036 0.04110.0027 0.04220.0025
    Data2 5 0.03620.0046 0.01240.0008 0.01210.0011 0.01090.0064 0.01060.0071
    10 0.04030.0071 0.01460.0007 0.01410.0011 0.01290.0009 0.01270.0010
    20 0.03710.0031 0.01430.0006 0.01490.0013 0.01220.0011 0.01210.0012
    30 0.04880.0061 0.02110.00013 0.02070.0012 0.01540.0031 0.01500.0026
    Data3 5 0.09520.0033 0.07360.0045 0.07270.0042 0.06150.0037 0.06070.0028
    10 0.10240.0038 0.07540.0041 0.07910.0055 0.06360.0043 0.06200.0042
    20 0.11740.0038 0.07210.0033 0.07200.0036 0.06310.0036 0.06110.0028
    30 0.13240.1324 0.08790.1079 0.08660.1066 0.07440.1044 0.07030.1063
    Data4 5 0.08670.0098 0.06990.0072 0.06830.0135 0.05990.0082 0.05730.0075
    10 0.09240.0101 0.07930.0085 0.09560.0144 0.06790.0145 0.06690.0103
    20 0.11910.0149 0.08110.0101 0.07940.0107 0.06590.0129 0.06350.0099
    30 0.13960.0156 0.09340.0255 0.09260.0331 0.08470.0269 0.08330.0102
    注:加黑数字为最优结果。

    表  4   标准数据集下各种方法的MAE比较

    Table  4   MAE comparison of various methods under standard datasets

    编号 ζ/% mean,std
    SCN KDE-SCN MCC-SCN MM-SCN MM-AR-SCN
    Data1 5 0.04390.0016 0.03380.0019 0.03250.0013 0.02680.0011 0.02660.0009
    10 0.05990.0028 0.03490.0022 0.03650.0016 0.02730.0017 0.02690.0017
    20 0.06920.0035 0.03470.0013 0.03290.0014 0.02710.0014 0.02590.0015
    30 0.08660.0036 0.03850.0025 0.03770.0023 0.03010.0016 0.02990.0014
    Data2 5 0.02140.0016 0.00780.0003 0.00750.0004 0.00540.0015 0.00510.0013
    10 0.03110.0031 0.00840.0005 0.00780.0004 0.00600.0005 0.00560.0005
    20 0.03080.0023 0.00820.0004 0.00750.0004 0.00690.0005 0.00670.0006
    30 0.04710.0042 0.0163,0.007 0.01610.0008 0.01090.0011 0.0106,00010
    Data3 5 0.08250.0023 0.06970.0029 0.06900.0029 0.06400.0025 0.06290.0024
    10 0.08450.0027 0.06910.0023 0.06540.0027 0.06230.0029 0.06160.0024
    20 0.09190.0026 0.06390.0021 0.06780.0024 0.05490.0025 0.05450.0021
    30 0.10170.0034 0.08540.0032 0.07370.0034 0.06500.0038 0.06450.0042
    Data4 5 0.04620.0032 0.03730.0027 0.03690.0031 0.03640.0027 0.03950.0029
    10 0.05280.0034 0.03920.0032 0.03400.0031 0.02930.0034 0.02900.0036
    20 0.07440.0059 0.05180.0072 0.04980.0037 0.04080.0036 0.03950.0051
    30 0.09720.0060 0.05480.0058 0.05510.0043 0.04160.0051 0.03870.0031
    注:加黑数字为最优结果。

    表  5   不同方法评价指标对比

    Table  5   Comparison of evaluation indexes of different methods

    数据集 评价指标 SCN PSCN EN-SCN AR-SCN MM-AR-SCN
    Data1 训练集 RMSE 0.0295 0.0290 0.0249 0.0257 0.0259
    MAE 0.0257 0.0233 0.0204 0.0179 0.0173
    测试集 RMSE 0.0454 0.0428 0.0395 0.0325 0.0342
    MAE 0.0359 0.0328 0.0268 0.0259 0.0271
    Data2 训练集 RMSE 0.0121 0.0138 0.0081 0.0069 0.0081
    MAE 0.0045 0.0086 0.0056 0.0045 0.0042
    测试集 RMSE 0.0189 0.0149 0.0121 0.0129 0.0132
    MAE 0.0078 0.0092 0.0075 0.0078 0.0076
    Data3 训练集 RMSE 0.0726 0.0697 0.0647 0.0606 0.0588
    MAE 0.0571 0.0459 0.0502 0.0472 0.0453
    测试集 RMSE 0.0864 0.0832 0.0853 0.0872 0.0715
    MAE 0.0662 0.0625 0.0632 0.0621 0.0602
    Data4 训练集 RMSE 0.0343 0.0387 0.0259 0.0244 0.0276
    MAE 0.0183 0.0182 0.0195 0.0184 0.0177
    测试集 RMSE 0.0624 0.0583 0.0469 0.0493 0.0479
    MAE 0.0402 0.0379 0.0239 0.0298 0.0224
    注:加黑数字为最优结果。

    表  6   MSWI历史数据下各种方法的RMSE比较

    Table  6   RMSE comparison of various methods under MSWI historical data

    ζ/% mean,std
    SCN KDE-SCN MCC- SCN MM- SCN MM-AR-SCN
    5 1.22130.0238 1.13080.0211 1.11890.0248 1.04750.0180 1.03220.0271
    10 1.43060.0237 1.22730.0256 1.23440.0221 1.09310.0348 1.06800.0432
    20 1.74080.0231 1.42940.0185 1.40680.0253 1.29580.0324 1.28740.0274
    30 1.78490.0240 1.42250.0363 1.42750.0364 1.31710.0317 1.30430.0373
    注:加黑数字为最优结果。

    表  7   MSWI历史数据下各种方法的MAE比较

    Table  7   MAE comparison of various methods under MSWI historical data

    ζ/% mean,std
    SCN KDE-SCN MCC- SCN MM- SCN MM-AR-SCN
    5 0.96950.0107 0.76740.0143 0.76510.0102 0.70310.0156 0.69890.0136
    10 1.17990.0139 0.77670.0175 0.78050.0137 0.69710.0206 0.71370.0260
    20 1.43710.0159 1.14600.0142 1.13290.0208 0.97940.0231 0.96360.0209
    30 1.68740.0173 1.32400.0188 1.32060.0176 1.18450.0252 1.18680.0201
    注:加黑数字为最优结果。

    表  8   不同方法评价指标对比

    Table  8   Comparison of evaluation indexes of different methods

    数据集 评价指标 SCN PSCN EN-SCN AR-SCN MM-AR-SCN
    MSWI
    历史数据
    训练集 RMSE 0.5872 0.6333 0.5647 0.4134 0.4331
    MAE 0.3927 0.4811 0.4295 0.3736 0.4059
    测试集 RMSE 0.8424 0.7026 0.6757 0.7272 0.6654
    MAE 0.5711 0.5256 0.4957 0.4753 0.4689
    注:加黑数字为最优结果。

    表  9   不同模型运行时间对比

    Table  9   Comparison of running time of different models

    方法 SCN MM-SCN AR-SCN MM-AR-SCN
    时间/s 0.2057 0.2132 0.2112 0.2150
  • [1] MAO Chengsheng, YAO Liang, LUO Yuan. ImageGCN: multi-relational image graph convolutional networks for disease identification with chest X-rays[J]. IEEE transactions on medical imaging, 2022, 41(8): 1990−2003. doi: 10.1109/TMI.2022.3153322
    [2] QIAO Junfei, SUN Zijian, MENG Xi. A comprehensively improved interval type-2 fuzzy neural network for NOx emissions prediction in MSWI process[J]. IEEE transactions on industrial informatics, 2023, 19(11): 11286−11297. doi: 10.1109/TII.2023.3245640
    [3] SCARDAPANE S, WANG Dianhui. Randomness in neural networks: an overview[J]. Wiley interdisciplinary reviews: data mining and knowledge discovery, 2017, 7(2): e1200. doi: 10.1002/widm.1200
    [4] 乔俊飞, 李凡军, 杨翠丽. 随机权神经网络研究现状与展望[J]. 智能系统学报, 2016, 11(6): 758−767.

    QIAO Junfei, LI Fanjun, YANG Cuili. Review and prospect on neural networks with random weights[J]. CAAI transactions on intelligent systems, 2016, 11(6): 758−767.
    [5] PAO Y H, TAKEFUJI Y. Functional-link net computing: theory, system architecture, and functionalities[J]. Computer, 1992, 25(5): 76−79. doi: 10.1109/2.144401
    [6] LI Ming, WANG Dianhui. Insights into randomized algorithms for neural networks: practical issues and common pitfalls[J]. Information sciences, 2017, 382: 170−178.
    [7] WANG Dianhui, LI Ming. Stochastic configuration networks: fundamentals and algorithms[J]. IEEE transactions on cybernetics, 2017, 47(10): 3466−3479. doi: 10.1109/TCYB.2017.2734043
    [8] DAI Wei, ZHOU Xinyu, LI Depeng, et al. Hybrid parallel stochastic configuration networks for industrial data analytics[J]. IEEE transactions on industrial informatics, 2021, 18(4): 2331−2341.
    [9] LI Kang, YANG Cuili, WANG Wei, et al. An improved stochastic configuration network for concentration prediction in wastewater treatment process[J]. Information sciences, 2023, 622: 148−160. doi: 10.1016/j.ins.2022.11.134
    [10] EL-MELEGY M T. Model-wise and point-wise random sample consensus for robust regression and outlier detection[J]. Neural networks, 2014, 59: 23−35. doi: 10.1016/j.neunet.2014.06.010
    [11] DAI Wei, CHEN Qixin, CHU Fei, et al. Robust regularized random vector functional link network and its industrial application[J]. IEEE access, 2017, 5: 16162−16172. doi: 10.1109/ACCESS.2017.2737459
    [12] WANG Dianhui, LI Ming. Robust stochastic configuration networks with kernel density estimation for uncertain data regression[J]. Information sciences, 2017, 412: 210−222.
    [13] 李温鹏, 周平. 高炉铁水质量鲁棒正则化随机权神经网络建模[J]. 自动化学报, 2020, 46(4): 721−733.

    LI Wenpeng, ZHOU Ping. Robust regularized RVFLNs modeling of molten iron quality in blast furnace ironmaking[J]. Acta automatica sinica, 2020, 46(4): 721−733.
    [14] LI Ming, HUANG Changqin, WANG Dianhui. Robust stochastic configuration networks with maximum correntropy criterion for uncertain data regression[J]. Information sciences, 2019, 473: 73−86. doi: 10.1016/j.ins.2018.09.026
    [15] DAI Wei, LI Depeng, CHEN Qixin, et al. Data driven particle size estimation of hematite grinding process using stochastic configuration network with robust technique[J]. Journal of Central South University, 2019, 26(1): 43−62. doi: 10.1007/s11771-019-3981-2
    [16] ZHOU Ping, LYU Youbin, WANG Hong, et al. Data-driven robust RVFLNs modeling of a blast furnace iron-making process using cauchy distribution weighted M-estimation[J]. IEEE transactions on industrial electronics, 2017, 64(9): 7141−7151. doi: 10.1109/TIE.2017.2686369
    [17] ZOU Hui, HASTIE T. Regularization and variable selection via the elastic net[J]. Journal of the royal statistical society: series B (statistical methodology), 2005, 67(2): 301−320. doi: 10.1111/j.1467-9868.2005.00503.x
    [18] SRIVASTAVA N, HINTON G, KRIZHEVSKY A, et al. Dropout: a simple way to prevent neural networks from overfitting[J]. Journal of machine learning research, 2014, 15: 1929−1958.
    [19] 王前进, 代伟, 陆群, 等. 一种随机配置网络软测量模型的稀疏学习方法[J]. 控制与决策, 2022, 37(12): 3171−3182.

    WANG Qianjin, DAI Wei, LU Qun, et al. A sparse learning method for SCN soft measurement model[J]. Control and decision, 2022, 37(12): 3171−3182.
    [20] ZHAO Lijie, ZOU Shida, HUANG Mingzhong, et al. Distributed regularized stochastic configuration networks via the elastic net[J]. Neural computing and applications, 2021, 33(8): 3281−3297. doi: 10.1007/s00521-020-05178-x
    [21] 赵立杰, 邹世达, 郭烁, 等. 基于正则化随机配置网络的球磨机工况识别[J]. 控制工程, 2020, 27(1): 1−7.

    ZHAO Lijie, ZOU Shida, GUO Shuo, et al. Ball mill load condition recognition model based on regularized stochastic configuration networks[J]. Control engineering of China, 2020, 27(1): 1−7.
    [22] FAN Jun, YAN Ailing, XIU Naihua. Asymptotic properties for M-estimators in linear models with dependent random errors[J]. Journal of statistical planning and inference, 2014, 148: 49−66. doi: 10.1016/j.jspi.2013.12.005
    [23] ROUSSEEUW P J, CROUX C. Alternatives to the Median absolute deviation[J]. Journal of the American statistical association, 1993, 88(424): 1273−1283. doi: 10.1080/01621459.1993.10476408
    [24] LÓPEZ-RUBIO E, PALOMO E J, DOMÍNGUEZ E. Robust self-organization with M-estimators[J]. Neurocomputing, 2015, 151: 408−423. doi: 10.1016/j.neucom.2014.09.024
    [25] AGLIARI E, ALEMANNO F, AQUARO M, et al. Regularization, early-stopping and dreaming: a hopfield-like setup to address generalization and overfitting[J]. Neural networks, 2024, 177: 106389. doi: 10.1016/j.neunet.2024.106389
    [26] 张成龙, 丁世飞, 郭丽丽, 等. 随机配置网络研究进展[J]. 软件学报, 2024, 35(5): 2379−2399.

    ZHANG Chenglong, DING Shifei, GUO Lili, et al. Research progress on stochastic configuration network[J]. Journal of software, 2024, 35(5): 2379−2399.
    [27] WANG Tianzheng, TANG Jian, XIA Heng, et al. Data-driven multi-objective intelligent optimal control of municipal solid waste incineration process[J]. Engineering applications of artificial intelligence, 2024, 137: 109157. doi: 10.1016/j.engappai.2024.109157
    [28] MENG Xi, TANG Jian, QIAO Junfei. NOx emissions prediction with a brain-inspired modular neural network in municipal solid waste incineration processes[J]. IEEE transactions on industrial informatics, 2022, 18(7): 4622−4631. doi: 10.1109/TII.2021.3116528
    [29] 汤健, 夏恒, 余文, 等. 城市固废焚烧过程智能优化控制研究现状与展望[J]. 自动化学报, 2023, 49(10): 2019−2059.

    TANG Jian, XIA Heng, YU Wen, et al. Research status and prospects of intelligent optimization control for municipal solid waste incineration process[J]. Acta automatica sinica, 2023, 49(10): 2019−2059.
    [30] 孙剑, 蒙西, 乔俊飞. 数据驱动的城市固废焚烧过程烟气含氧量预测控制[J]. 控制理论与应用, 2024, 41(3): 484−495.

    SUN Jian, MENG Xi, QIAO Junfei. Data-driven predictive control of oxygen content in flue gas for municipal solid waste incineration process[J]. Control theory & applications, 2024, 41(3): 484−495.
WeChat 点击查看大图
图(3)  /  表(9)
出版历程
  • 收稿日期:  2025-01-15
  • 录用日期:  2025-10-15
  • 网络出版日期:  2025-10-17

目录

    /

    返回文章
    返回