面向大规模稀疏优化的分层多目标萤火虫算法

裘梓榆 赵嘉 王奔 张翼英 王晖 卢方舟 樊棠怀

裘梓榆, 赵嘉, 王奔, 等. 面向大规模稀疏优化的分层多目标萤火虫算法 [J]. 智能系统学报, 2026, 21(2): 461-475. doi: 10.11992/tis.202505018
引用本文: 裘梓榆, 赵嘉, 王奔, 等. 面向大规模稀疏优化的分层多目标萤火虫算法 [J]. 智能系统学报, 2026, 21(2): 461-475. doi: 10.11992/tis.202505018
QIU Ziyu, ZHAO Jia, WANG Ben, et al. Hierarchical multi-objective firefly algorithm for large-scale sparse optimization [J]. CAAI Transactions on Intelligent Systems, 2026, 21(2): 461-475. doi: 10.11992/tis.202505018
Citation: QIU Ziyu, ZHAO Jia, WANG Ben, et al. Hierarchical multi-objective firefly algorithm for large-scale sparse optimization [J]. CAAI Transactions on Intelligent Systems, 2026, 21(2): 461-475. doi: 10.11992/tis.202505018

面向大规模稀疏优化的分层多目标萤火虫算法

doi: 10.11992/tis.202505018
基金项目: 国家自然科学基金项目(62466037, 62463021).
详细信息
    作者简介:

    裘梓榆,硕士研究生,主要研究方向为群智能算法。获得“华为杯”第二十届中国研究生数学建模竞赛三等奖、2024江西省研究生数学建模竞赛二等奖。E-mail:280174135@qq.com;

    赵嘉,教授,博士,主要研究方向为智能计算与计算智能、模式识别与大数据挖掘。主持国家自然科学基金项目3项,发表学术论文150余篇,出版专著1部。E-mail:zhaojia925@163.com.

    通讯作者:

    赵嘉. E-mail:zhaojia925@163.com.

  • 中图分类号: TP18

Hierarchical multi-objective firefly algorithm for large-scale sparse optimization

  • 摘要:

    针对多目标萤火虫算法在处理大规模稀疏多目标优化问题中存在的Pareto最优解稀疏性维持困难以及种群难以收敛的问题,提出了一种得分引导与特征选择的分层多目标萤火虫算法(hierarchical multi-objective firefly algorithm based on score guidance and feature selection, HLsMOFA)。该算法提出得分引导的初始化策略,计算决策变量初始得分,生成稀疏性状态的初始种群;构建特征选择的得分更新机制,引入Relief算法计算特征权重,在每次迭代时结合特征纯度共同更新决策变量得分,进一步维持Pareto最优解的稀疏特性;设计分层学习模式,将萤火虫种群按比例进行分层,减少移动过程中个体受全吸引模型影响而产生的振荡,提升算法在大规模决策空间中的收敛性能。实验结果表明,HLsMOFA较选择的对比算法具有更好的收敛性与多样性。

     

    Abstract:

    Aiming at the problem that the multi-objective firefly algorithm is difficult to maintain the sparsity of Pareto optimal solutions and the population is difficult to converge in dealing with large-scale sparse multi-objective optimization problems, a hierarchical multi-objective firefly algorithm with score guidance and feature selection (HLsMOFA) is proposed. The algorithm proposes a score-guided initialization strategy, calculates the initial score of the decision variable, and generates the initial population of the sparse state. The score updating mechanism of feature selection is constructed, and the Relief algorithm is introduced to calculate the feature weight. At each iteration, the decision variable score is jointly updated with the feature purity to further maintain the sparse characteristics of the Pareto optimal solutions. A hierarchical learning model is designed to stratify the firefly population proportionally, reduce the oscillation caused by the influence of the full attraction model during the movement process, and improve the convergence performance of the algorithm in a large-scale decision space. The experimental results show that HLsMOFA has better convergence and diversity than the selected comparison algorithm.

     

  • 现实场景中,多数优化问题呈现多个目标相互冲突的特征,该类优化问题被定义为多目标优化问题(multi-objective optimization problem, MOPs)[1-3]。例如,特征选择[4]旨在减少特征数量的同时提高分类性能,神经网络训练[5]希望最大化训练准确率的同时最小化神经网络的复杂度。鉴于MOPs目标函数间往往存在互相制约的关系,其求解目的不是找到唯一的最优解,而是挖掘出一组平衡各个目标的Pareto最优解集[6],该解集在目标空间中的映射被称为Pareto前沿(Pareto frontier, PF)。

    MOPs依据其特性可划分为若干子类,其中一类因涉及高维空间而备受关注。具体而言,当MOPs的目标函数个数超过3个,则将其定义为高维多目标优化问题(many-objective optimization problems, MaOPs)[7];当MOPs的决策变量维度不小于100时,定义为大规模多目标优化问题[8](large-scale multi-objective optimization problems, LMOPs);当MOPs的决策变量维度不小于100且大多数决策变量为零时,定义为大规模稀疏多目标优化问题(large-scale sparse multi-objective optimization problems, LSMOPs)[9]。实际应用中,诸多优化问题均呈现LSMOPs特征,例如稀疏信号重构、投资组合优化等[10-11],但其求解面临两大核心挑战:1)维度灾难[12]导致搜索空间规模指数级增长,算法复杂度非线性激增;2)Pareto最优解的稀疏分布[13-14]加剧收敛难度。

    针对上述双重难题,学者们提出了诸多改进策略以求解LSMOPs。

    应对搜索空间维度过高的策略可大致归为3类:1)决策变量分解策略。将决策变量分为若干子集,针对各子集实施独立优化。例如Antonio等[15]提出的合作协同进化在解决大规模多目标优化问题中的应用(use of cooperative coevolution for solving large scale multiobjective optimization problems, CCGDE3),该算法采用随机分组策略将决策变量随机分配至等规模子组,但因未考虑变量间的潜在关联性,面对具有复杂变量交互的大规模多目标优化问题时效果受限。2)问题转化策略。将大规模问题转化为小规模以缩小决策空间的搜索范围,达到降维目的。例如Zille等[16]提出的基于问题转换的大规模多目标优化框架(framework for large-scale multiobjective optimization based on problem transformation, WOF),此框架采用变量分组与加权转换技术处理原始问题,但对重构解的依赖性较强,其性能受分组策略影响显著。3)特殊子代生成策略。通过设计高效子代生成机制提升算法性能,实现高效搜索[17]。例如He等[18]提出的面向大规模多目标优化的自适应子代生成方法(adaptive offspring generation for evolutionary large-scale multiobjective optimization, DGEA),该方法动态调整生成策略平衡算法的探索与开发能力,提升其在高维决策空间中的优化效率。

    针对Pareto最优解稀疏特性的处理研究,该领域主流方法可归结为两大类:1)基于先导信息的方法。例如Tian等[19]在2019年提出了一种求解LSMOPs的进化算法(evolutionary algorithm for sparse multi-objective optimization problems, SparseEA),其采用二进制混合编码策略以标记非零决策变量,通过动态调整二进制掩码以挖掘Pareto最优解的稀疏分布,但受限于种群初始化阶段决策变量得分的静态特性,难以精准刻画变量在优化进程中的动态贡献度。2)基于搜索空间降维的方法。例如Tian等[20]在2020年提出一种基于Pareto最优子空间学习的大规模稀疏多目标进化算法(multi-objective evolutionary algorithm based on pareto optimal subspace learning, MOEA/PSL),其采用双无监督神经网络学习决策变量的稀疏分布和紧凑表示,然而高昂的计算开销及优化过程中稀疏性先验知识的缺失,制约了算法的效能发挥。

    群智能算法(swarm intelligence algorithm, SIA)[21]因鲁棒性强、对问题环境无依赖性,在LSMOPs求解中具有重要价值。其中多目标萤火虫算法(multi-objective firefly algorithm, MOFA)[22]作为SIA中的经典算法,因其易于实现、参数设置简单以及鲁棒性良好等优势在MOPs中得到广泛应用[23-24]。但MOFA在求解更具挑战性的LSMOPs时往往表现不佳,主要原因在于:1)未针对各决策变量制定差异化学习策略,难以维持解稀疏性。2)全吸引模型导致萤火虫个体移动振荡,收敛困难。

    综上所述,本文提出一种得分引导与特征选择的分层多目标萤火虫算法(hierarchical multi-objective firefly algorithm based on score guidance and feature selection, HLsMOFA)。具体而言,提出的HLsMOFA包括3个主要特点:1)提出了一种得分引导的初始化策略,计算决策变量初始得分以保证Pareto最优解的稀疏性状态。基于得分引导生成3个具有稀疏特性的子种群,经环境选择后合并为初始化种群,该种群质量高且稀疏性显著;2)构建了一种特征选择的得分更新机制,引入Relief算法得到每个特征的权重,同时定义特征纯度概念。根据特征权重与纯度动态更新决策变量得分,在每次迭代中准确评估各维度为非零位概率,进一步保证Pareto最优解的稀疏性,帮助种群收敛到真实Pareto前沿。3)设计了一种分层学习模式,按比例将萤火虫种群划分为3层,各层级萤火虫采用差异化搜索策略,降低全吸引模型对个体移动振荡的影响,提升种群在大规模决策空间中的收敛性能。实验结果表明,HLsMOFA在8个基准测试函数与2个实际应用问题中获得的种群较对比算法具有更好的收敛性与多样性。

    为不失一般性,以最小化问题为例。一个具有$ n $维决策变量、$ m $个目标函数的多目标优化问题,其数学模型为

    $$ \left\{\begin{array}{l} \min {\boldsymbol{y}}=F\left({\boldsymbol{x}}\right)=\left({f}_{1}\left({\boldsymbol{x}}\right),{f}_{2}\left({\boldsymbol{x}}\right),\cdots ,{f}_{m}\left({\boldsymbol{x}}\right)\right)\\ {\boldsymbol{x}}=\left({\boldsymbol{x}}_{1},{\boldsymbol{x}}_{2},\cdots ,{{\boldsymbol{x}}}_{n}\right)\in {\boldsymbol{X}}\subset {\mathbf{R}}^{n}\\ {\boldsymbol{y}}=\left({\boldsymbol{y}}_{1},{\boldsymbol{y}}_{2},\cdots ,{\boldsymbol{y}}_{m}\right)\in \boldsymbol{Y}\subset {\mathbf{R}}^{m} \end{array} \right.$$

    式中:$ \boldsymbol{x} $为$ n $维决策向量,$ \boldsymbol{X} $是$ n $维决策空间, $ \boldsymbol{y}=F\left(\boldsymbol{x}\right) $为$ m $维目标向量,$ \boldsymbol{Y} $是$ m $维目标空间。

    对于任意两个决策向量$ {\boldsymbol{x}}_{i},{\boldsymbol{x}}_{j}\in \boldsymbol{X} $,当且仅当:

    $$ \left\{\begin{array}{l} \forall \;\; l\in \left\{1,2,\cdots ,m\right\}\colon {f}_{l}\left({\boldsymbol{x}}_{i}\right)\leq {f}_{l}\left({\boldsymbol{x}}_{j}\right)\\ \exists\;\; h\in \left\{1,2,\cdots ,m\right\}\colon {f}_{h}\left({\boldsymbol{x}}_{i}\right)\leq {f}_{h}\left({\boldsymbol{x}}_{j}\right) \end{array} \right.$$

    称为$ {\boldsymbol{x}}_{i} $Pareto支配$ {\boldsymbol{x}}_{j} $,数学表示为$ {\boldsymbol{x}}_{i}\prec {\boldsymbol{x}}_{j} $。

    MOFA基本原理在于萤火虫的亮度吸引行为:亮度较低的个体向亮度较高的移动,移动方向由位置更新公式决定。全体萤火虫完成移动后,亮度值根据目标函数更新,并依据吸引力规则进行下一轮位置调整。其中,萤火虫亮度与目标函数值相关,个体间吸引力与亮度正相关,与距离负相关。

    设萤火虫种群数为$ N $,决策变量数为$ D $,第$ i\left(i=1,2,\cdots ,N\right) $只萤火虫在搜索空间中的位置可表示为$ {{\boldsymbol{X}}}_{i}\left({x}_{i1},{x}_{i2},\cdots ,{x}_{iD}\right) $。萤火虫$ i $的亮度$ {I}_{i} $表示为

    $$ {I}_{i}={I}_{0}{\mathrm{e}}^{-{\gamma _{ij}^{2}}} $$

    式中:$ {I}_{0} $为萤火虫$ i $位于$ r=0 $时的亮度;$ \gamma $为光吸收系数,一般设置为1;$ {r}_{ij} $为萤火虫$ i $与$ j $之间的欧氏距离。

    萤火虫$ i $与$ j $之间的吸引力表示为

    $$ {\beta }_{ij}={\beta }_{0}{\mathrm{e}}^{-\gamma {r_{ij}^{2}}} $$

    式中:$ {\beta }_{0} $为最大吸引力,即$ r=0 $时的吸引力;$ {\beta }_{ij} $为萤火虫$ i $与$ j $之间的吸引力。

    多目标萤火虫算法中,萤火虫个体之间的关系由Pareto支配而决定。若萤火虫$ i $被萤火虫$ j $支配,则表示萤火虫$ i $的亮度更弱,为在搜索空间中找到更优的位置,此时萤火虫$ i $按下式朝萤火虫$ j $移动:

    $$ {\boldsymbol{x}}_{i}\left(t+1\right)={\boldsymbol{x}}_{i}\left(t\right)+{\beta }_{ij}\left({\boldsymbol{x}}_{j}\left(t\right)-{\boldsymbol{x}}_{i}\left(t\right)\right)+\alpha \boldsymbol{\varepsilon } $$

    式中:$ {\boldsymbol{x}}_{i}\left(t\right) $与$ {\boldsymbol{x}}_{j}\left(t\right) $为第$ t $代萤火虫$ i $与$ j $在搜索空间中的位置,$ \boldsymbol{\varepsilon } $为服从均匀分布的随机数向量,$ \alpha $为步长因子。

    若萤火虫$ i $不被种群中任何萤火虫支配,则萤火虫$ i $按下式进行位置更新:

    $$ {\boldsymbol{x}}_{i}\left(t+1\right)={\boldsymbol{g}}^{\ast }+\alpha \boldsymbol{\varepsilon } $$

    式中$ {\boldsymbol{g}}^{\ast } $代表萤火虫种群当前的最优位置。

    特征选择(feature selection, FS)[25]作为机器学习和数据挖掘的关键步骤,旨在从原始的数据集中选择出信息量最大,对模型预测性能贡献最大的特征子集,从而优化模型的分类表现。

    Relief算法作为一种特征选择方法,最早由Kira等[26]提出,专为解决二分类问题而设计。该算法以特征作为衡量特征和类别之间相关性的依据,为特征赋予不同的权重值,以此判断特征的重要程度。

    假设一个模型的特征数为$ p $,$ \boldsymbol{F} $即$ \left\{{{\boldsymbol{f}}}_{1},{{\boldsymbol{f}}}_{2},\cdots ,{{\boldsymbol{f}}}_{p}\right\} $为特征集。$ \boldsymbol{S} $为样本量为$ n $的训练样本集,将样本集$ \boldsymbol{S} $分为两类不同的样本后,随机选择一个样本$ {\boldsymbol{x}}_{i}\in \boldsymbol{S} $,抽样次数为$ m $。样本$ {\boldsymbol{x}}_{i} $由$ p $维向量$ \left({x}_{i1},{x}_{i2},\cdots , {x}_{ip}\right) $组成,其中$ {x}_{ik} $为$ {\boldsymbol{x}}_{i} $的第$ k $个特征值。

    在样本$ {\boldsymbol{x}}_{i} $的同类样本中选择最近邻样本$ {\boldsymbol{N}}_{\mathrm{Hit}} $,在异类样本中选择最近邻样本$ {\boldsymbol{N}}_{\mathrm{Miss}} $。若$ {\boldsymbol{x}}_{i} $和$ {\boldsymbol{N}}_{\mathrm{Miss}} $在某个特征上的距离大于和$ {\boldsymbol{N}}_{\mathrm{Hit}} $上的距离,则表明该特征益于模型分类,故提升其权重值。反之,降低该特征的权重。两个样本$ {\boldsymbol{x}}_{i} $和$ {\boldsymbol{x}}_{j} $特征值之间的距离可定义为

    $$ \mathrm{diff}\left({x}_{ik},{x}_{jk}\right)=\left({x}_{ik}-{x}_{jk}\right)/{v}_{k} $$

    式中:$ {x}_{ik} $与$ {y}_{ik} $分别为样本$ {\boldsymbol{x}}_{i} $和$ {\boldsymbol{x}}_{j} $的第$ k $个特征值;$ {v}_{k} $为归一化单位,目的是把$ \mathrm{diff} $值归至[0,1]区间中。

    第$ k $个特征的权重$ {W}_{k} $可由下式计算得出:

    $$ \begin{aligned}{W}_{k}={W}_{k}-\mathrm{diff}^{2}{\left({x}_{{i}k},N_{\mathrm{Hi}\mathrm{t}}^{k}\right)}+ \mathrm{diff}^{2}{\left({x}_{{i}k},N_{\mathrm{Mi}\mathrm{ss}}^{k}\right)} \end{aligned} $$

    式中:$ {W}_{k} $为第$ k $个特征的权重值,$ N_{\mathrm{Hit}}^{k} $为当前样本在同类样本中的最近邻样本在特征$ k $上的值,$ N_{\mathrm{Miss}}^{k} $为当前样本在不同类样本中的最近邻样本在特征$ k $上的值。

    将上述过程循环$ m $次后,最终得到各特征的权重。判断一个特征是否为相关性特征时,可以设定一个特征阈值$ \tau $,并计算每个特征的相关系数:

    $$ {r}_{k}=\frac{1}{m}{W}_{k} $$

    式中:$ {r}_{k} $为特征$ k $的相关系数,若特征$ k $的相关系数$ {r}_{k}\geq \tau $,则表示该特征是一个相关的特征且益于分类,反之则为无关的特征。

    受上述研究启发,本文引入Relief算法计算特征权重,量化决策变量各维度对目标函数的贡献程度,实现Pareto最优解稀疏性的动态维持。

    由于MOFA未针对决策变量维度制定差异化的学习机制,这将难以保证Pareto最优解的稀疏性。此外,MOFA的随机初始化策略虽能产生具有良好多样性的初始种群,但因未结合问题特性进行设计,对Pareto最优解的稀疏性优化作用有限。鉴于此,提出得分引导的初始化策略,通过决策变量得分区分各维度,旨在生成具有稀疏性特征的高质量种群。

    该策略引入SparseEA中决策变量的表示方法,采用一种混合解的形式对决策变量进行编码表示,该形式融合了两种编码形式。具体而言,决策变量$ \boldsymbol{x} $由实向量$ \boldsymbol{d} $与二进制向量$ \boldsymbol{m} $两部分构成。针对$ D $维决策变量,其表述为

    $$ \left({x}_{1},{x}_{2},\cdots ,{x}_{D}\right)=\left({d}_{1}\times {m}_{1},{d}_{2}\times {m}_{2},\cdots,{d}_{D}\times {m}_{D}\right) $$

    式中:$ {d}_{i} $表示决策变量维度$ i $当前的最优值,$ {m}_{i} $为二进制数值,决定决策变量维度$ i $是否为零。该决策变量表示方法的具体操作示意如图1所示。

    图  1  决策变量表示法
    Fig.  1  Decision variable representation
    下载: 全尺寸图片

    得分引导的初始化策略分为3步:计算决策变量得分、生成子种群与环境选择。

    1)计算决策变量得分。对于$ D $维决策变量,构造出含$ D $个解的种群$ {\boldsymbol{Q}} $,其中各解实向量$ \boldsymbol{d} $中的元素被设置为变量区间内的随机值,第$ i $个解的$ \boldsymbol{m} $部分的第$ i $个元素被设置为1,$ \boldsymbol{m} $中的其他元素被设置为0。种群$ {\boldsymbol{Q}} $的示例如图2所示。对种群$ {\boldsymbol{Q}} $执行非支配排序操作,将排序后第$ i $个解所在的层数作为决策变量第$ i $个维度的得分。为降低偶然性因素带来的影响,将得分计算过程循环4次,所得之和作为各维度的初始得分。得分越低的维度被赋值为零的概率越低,反之亦然。

    图  2  种群$ {\boldsymbol{Q}} $的示例
    Fig.  2  Example of population $ {\boldsymbol{Q}} $
    下载: 全尺寸图片

    2)生成子种群。该策略一共生成3个子种群,分别为初始得分子种群、得分排序子种群与得分翻转子种群。

    (a)初始得分子种群:由得分计算过程构造的4个种群$ {\boldsymbol{Q}} $合并得到。

    (b)得分排序子种群:首先构造一个具有$ D $个解的子种群$ {\boldsymbol{P}} $,其中实向量$ \boldsymbol{d} $构造方法与求解决策变量得分时相同。对于二进制向量$ \boldsymbol{m} $,第$ i $个解中得分前$ i $名的决策变量维度为1,其余维度为0。种群$ {\boldsymbol{P}} $的$ \boldsymbol{m} $部分示例如图3所示。

    图  3  得分排序子种群$ {\boldsymbol{P}} $,$ \boldsymbol{m} $($ D=9 $)的示例
    Fig.  3  Example of the score-ranking subpopulation $ {\boldsymbol{P}} $,$ \boldsymbol{m} $ ($ D=9 $)
    下载: 全尺寸图片

    图3中方阵上方数字表示所在维度得分排名,得分最佳的第2维在9个解当中$ \boldsymbol{m} $值都为1,而得分排名最后的第7维仅在1个解中存在非零值。

    (c)得分翻转子种群:首先构造一个具有$ N $个解的子种群$ {\boldsymbol{R}} $,其中$ N $为种群规模。实向量$ \boldsymbol{d} $中元素被设置为变量区间内的随机值,二进制向量$ \boldsymbol{m} $中元素全为0。种群构造完成后,将各解的$ \boldsymbol{m} $部分元素赋值为1。选取这些元素的原则为:基于决策变量得分,采用二元锦标赛[27]挑选$ \mathrm{rand}(\cdot )\times D $个元素,其中$ \mathrm{rand}(\cdot ) $为[0,1]区间内的随机数。

    3)环境选择。将上述3个子种群合并进行环境选择操作,采用优胜劣汰的思想,选择的方法是(improving the strength pareto evolutionary algorithm, SPEA2)[28]中的环境选择策略。

    为直观展现得分引导的初始化策略的有效性,图4给出了该策略与随机初始化策略得到的初始种群在SMOP6测试函数[19]上的分布情况。图4中$ {f}_{1} $与$ {f}_{2} $分别代表SMOP6的两个目标函数,灰色实心圆表示该策略生成的初始种群,黑色三角形代表随机初始化策略,黑色实心点连成的黑线为真实Pareto前沿。由图4可见,灰色实心圆相较于黑色三角形更接近Pareto前沿,且分布更为均匀。

    图  4  本文策略与随机初始化策略生成的初始种群对比
    Fig.  4  Comparison of the initial populations generated between our strategy and the random initialization strategy
    下载: 全尺寸图片

    综上所述,得分引导的初始化策略计算决策变量得分以评估各维度对目标函数的贡献,并依据得分引导生成了稀疏特性的高质量初始种群,从而为LSMOPs的求解提供有效支撑。

    决策变量得分是判定二进制向量$ \boldsymbol{m} $中各元素取值的重要依据,然而在种群初始化阶段仅进行一次得分计算,难以在后续迭代中维持Pareto最优解的稀疏分布特性。鉴于此,提出一种特征选择的得分更新机制,引入Relief算法计算特征权重,在每次迭代时结合特征纯度对决策变量得分进行协同更新,进一步保证Pareto最优解的稀疏性。

    为更精准评估特征对模型分类性能的影响,提出特征纯度的概念,进一步获取特征包含的信息。特征纯度:特征在全体样本中呈现非零值的比例,其数学定义为

    $$ {p}_{i}=\frac{{f}_{i}}{N} $$

    式中:$ {p}_{i} $为第$ i $个特征的特征纯度,$ {f}_{i} $为特征$ i $中非零值的数量,$ N $为样本集合规模。

    特征选择可类比为选择决策变量维度的过程。LSMOPs的Pareto最优解中仅小部分决策变量为非零值,这些变量对目标函数具有显著影响。当某决策变量维度在种群中为非零值的频次越高,表明该维度对目标函数影响程度越大。基于此,可依据特征纯度挑选出算法所需的决策变量维度,以提高算法应对LSMOPs时的性能。

    特征选择的得分更新机制的具体操作过程如下:

    首先对萤火虫种群进行非支配排序,将Pareto层级为1的个体视为优秀个体,其余为普通个体。运用Relief算法计算特征权重$ {W}_{i} $与各特征的相关系数$ {r}_{i} $,并选取特征阈值$ \tau =0 $,相关系数大于零的特征视为相关特征,相关系数小于零的特征视为无关特征。最后计算各决策变量维度的特征纯度,结合特征权重共同对决策变量得分进行动态更新。

    根据特征纯度进行首次得分更新:

    $$ {s}_{i}={s}_{i}+\left(\max {p}_{i}-{p}_{i}\right)\times N $$

    式中:$ {s}_{i} $为决策变量$ i $当前得分,$ \max {p}_{i} $为本轮迭代中特征纯度的最大值,$ N $为种群规模。

    根据特征权重再次进行得分更新:

    $$ \begin{cases} {s}_{i}={s}_{i}-{p}_{i}\times N,\;\;\;{W}_{i}\geq 0\\ {s}_{i}={s}_{i}+{p}_{i}\times N,\;\;\;{W}_{i} \lt 0 \end{cases} $$

    式中$ {W}_{i} $为第$ i $个特征的权重值。

    针对相关特征,鉴于其有益于种群区分优劣个体,采取降低其得分的操作,提高对应决策变量维度被赋值为非零值的概率。而对于无关特征,则提升其决策变量得分。

    为直观展现特征选择的得分更新机制的有效性,图5对比了采用该机制前后,算法在SMOP测试函数集上的非零决策变量的比例变化。根据图5可知,HLsMOFA获得的解集在非零决策变量占比上显著低于未采用该机制的对比算法,且均接近问题预设的稀疏度0.1。

    图  5  非零决策变量占比对比
    Fig.  5  Comparison of the proportion of non-zero decision variables
    下载: 全尺寸图片

    综上所述,该机制旨在动态调整决策变量得分,并依据得分及特征权重,对二进制向量$ \boldsymbol{m} $中元素进行更新。其基本原则为:得分越低,决策变量被置为零的概率越小;特征权重越高,对应决策变量维度被赋值为非零值的概率越大。迭代过程中,二进制向量$ \boldsymbol{m} $不断更新的同时进一步维持了Pareto最优解的稀疏性。

    萤火虫移动过程中,个体受到所有亮度高于自身的萤火虫吸引,这易引发萤火虫出现振荡现象[29],种群难以收敛到真实Pareto前沿。为应对上述问题,提出一种分层学习模式,该模式可大致分为以下3步。

    1)对萤火虫种群进行非支配排序。

    2)对萤火虫种群进行分层操作。经过实验分析发现,将萤火虫种群按1∶4∶5的固定比例划分为3个层级,能使算法取得更优效果。其中占据种群数量10%的为精英层,存放着排序后种群的前10%只萤火虫,占据40%与50%的层级分别为优秀层与潜力层。萤火虫分层示意如图6所示。

    图  6  萤火虫分层示意
    Fig.  6  Firefly hierarchical illustration
    下载: 全尺寸图片

    3)萤火虫移动。

    (a)精英层。精英萤火虫占据种群的极小部分,引领萤火虫种群进化。为保证精英萤火虫自身携带的信息不丢失甚至获取更有效的信息,规定精英萤火虫仅在自身周围运动,其移动公式为

    $$ {\boldsymbol{x}}_{i}\left(t+1\right)={\boldsymbol{x}}_{i}\left(t\right)+\boldsymbol{g}+\alpha \boldsymbol{\varepsilon } $$ (1)

    式中$ \boldsymbol{g} $为高斯变异所产生的随机向量。

    若萤火虫移动后的目标函数值能够Pareto支配原来的,则用当前位置取代之前的位置,否则返回原位。值得一提的是,高斯变异仅在$ 0.1\times D $个决策变量维度上产生随机数,选择的依据是决策变量得分。通过$ 0.1\times D $轮二元锦标赛选择出$ 0.1\times D $个决策变量进行变异,其中0.1为问题设定的稀疏度即非零决策变量数占决策变量数的比例。

    (b)优秀层。优秀层的萤火虫适应度仅次于精英层中的萤火虫,它们将朝着精英萤火虫移动。为有效防止种群陷入局部最优,优秀层的萤火虫采用双样本学习的方法,在精英层中随机选择两只萤火虫并朝它们移动。

    $$ \begin{array}{c} {\boldsymbol{x}}_{i}\left(t+1\right)={\boldsymbol{x}}_{i}\left(t\right)+{a}_{1}{\beta }_{1}\left({\boldsymbol{x}}_{j}\left(t\right)-{\boldsymbol{x}}_{i}\left(t\right)\right)+\\ {a}_{2}{\beta }_{2}\left({\boldsymbol{x}}_{k}\left(t\right)-{\boldsymbol{x}}_{i}\left(t\right)\right)+\alpha \boldsymbol{\varepsilon } \end{array} $$ (2)

    式中:$ {\boldsymbol{x}}_{j} $与$ {\boldsymbol{x}}_{k} $为精英层中随机选择的两只萤火虫,$ {a}_{1} $和$ {a}_{2} $为[0,1]内服从均匀分布的随机数。为避免过度学习[30]的情况,令$ {a}_{1}+{a}_{2}=1 $;$ {\beta }_{1} $与$ {\beta }_{2} $分别为萤火虫$ i $与萤火虫$ j $和$ k $之间的吸引力。

    图7所示,萤火虫$ i $在精英层中随机选择两只萤火虫$ j $和$ k $并朝它们移动。相较于每次移动只朝一只萤火虫移动,选择两只萤火虫作为移动对象的方式更容易帮助种群探索到未知区域,跳出局部最优解。

    图  7  优秀层萤火虫移动过程
    Fig.  7  Excellent layer firefly movement process
    下载: 全尺寸图片

    (c)潜力层。潜力层中的萤火虫适应度较差,应侧重于算法的全局搜索。故规定其在精英层与优秀层中各随机选择一只萤火虫进行移动。

    $$ \begin{array}{c} {\boldsymbol{x}}_{i}\left(t+1\right)={\boldsymbol{x}}_{i}(t)+{b}_{1}{\beta }_{1}\left({\boldsymbol{x}}_{j}\left(t\right)-{\boldsymbol{x}}_{i}\left(t\right)\right)+\\ {b}_{2}{\beta }_{2}\left({\boldsymbol{x}}_{k}\left(t\right)-{\boldsymbol{x}}_{i}\left(t\right)\right)+\alpha \boldsymbol{\varepsilon } \end{array} $$ (3)

    式中:$ {\boldsymbol{x}}_{j} $为精英层中随机选择的萤火虫;$ {\boldsymbol{x}}_{k} $为优秀层中随机选择的萤火虫;$ {b}_{1} $与$ {b}_{2} $为[0,1]内服从均匀分布的随机数,为防止萤火虫个体出现过度学习的现象,令$ {b}_{1}+{b}_{2}=1 $。

    (d)变异过程。在种群中所有萤火虫移动之后,种群进入变异过程。首先计算位置更新后萤火虫的目标函数值,随后萤火虫根据下式进行变异操作:

    $$ {\boldsymbol{x}}_{i}\left(t\right)={\boldsymbol{x}}_{i}\left(t\right)+\boldsymbol{g} $$

    与精英层移动公式中的高斯变异相同,该变异操作仅在$ 0.1\times D $个决策变量维度上进行变异。拥有更佳得分的决策变量进行变异的概率越大,目的是使变异更加高效,种群中的萤火虫能够在决策空间中搜索到亮度更高的位置。

    分层学习模式有效缓解了全吸引模型导致的个体振荡所带来的影响,显著提升了种群在大规模搜索空间中的收敛能力。该模式下,实向量$ \boldsymbol{d} $在迭代中持续优化,驱动种群逐渐逼近真实Pareto前沿。

    综上所述,该算法的基本流程步骤如下。

    1) 初始化参数。种群规模$ N $,决策变量$ D $,目标个数$ M $,算法最大评估次数$ \max {F}_{\mathrm{E}} $,光吸收系数$ \gamma $,步长因子$ \alpha $,最大吸引力$ {\beta }_{0} $。

    2) 构建初始得分子种群,对其进行快速非支配排序,得到各决策变量维度的初始得分与初始得分子种群。

    3) 依据决策变量得分生成得分排序子种群。

    4) 通过二元锦标赛与决策变量初始得分对二进制向量$ \boldsymbol{m} $翻转$ \mathrm{rand}(\cdot )\times D $次,得到得分翻转子种群。

    5) 将子种群合并,经环境选择后得到初始化种群。

    6) 当算法评估次数小于$ \max {F}_{\mathrm{E}} $时,重复步骤7)~14)。

    7) 运用Relief算法计算决策变量的特征权重,将特征权重与阈值比较,判定各决策变量的相关性。

    8) 计算各维度的特征纯度,综合特征的相关性与纯度,对决策变量得分进行更新。

    9) 依据决策变量得分与特征权重对二进制向量$ \boldsymbol{m} $进行翻转,得到更新后的二进制向量$ \boldsymbol{m} $。

    10) 对萤火虫种群进行非支配排序,并将其划分为3个层级。3个层级中的萤火虫分别按照式(1)~(3)进行移动。

    11) 萤火虫变异过程。

    12) 对萤火虫种群进行环境选择,选择出最优秀的$ N $只萤火虫的空间位置作为更新后的实向量$ \boldsymbol{d} $。

    13) 将更新后的实向量$ \boldsymbol{d} $与二进制向量$ \boldsymbol{m} $相乘,得到的解集作为下一代种群。

    14) 计算算法评估次数$ {F}_{\mathrm{E}}={F}_{\mathrm{E}}+N $,直至满足算法终止条件。

    设种群规模为$ N $,决策变量维度为$ D $,Relief算法中的抽样次数为$ m $。MOFA的时间复杂度为$ O\left(D\times {N}^{2}\right) $。HLsMOFA在MOFA的基础上添加了得分引导的初始化策略、特征选择的得分更新机制以及分层学习模式。在算法的初始阶段,得分引导的初始化策略相较于随机初始化策略更复杂,由于二者均独立于算法的核心迭代过程,其时间开销相较于算法整体运行时间可忽略不计。特征选择的得分更新机制中,特征权重的计算时间复杂度为$ O(m\times D\times N) $,特征纯度的计算时间复杂度为$ O(D\times N) $。分层学习模式改变了MOFA的全吸引模型,将原本双层循环嵌套简化为单层,因此分层学习模式的时间复杂度为$ O(D\times N) $。综上所述,HLsMOFA的时间复杂度为$ O(m\times D\times N)+O(D\times N)+O(D\times N) $。最终HLsMOFA的时间复杂度为$ O(m\times D\times N) $。由于减少了循环嵌套层数,HLsMOFA在数量级上低于MOFA的时间复杂度$ O\left(D\times {N}^{2}\right) $。

    为验证HLsMOFA在LSMOPs上的求解性能,实验选取了6种用于求解LSMOPs的多目标优化进化算法与HLsMOFA进行对比分析,其中包括SparseEA、MOEA/PSL、SECSO(enhanced competitive swarm optimizer for sparse optimization)[31]、PMMOEA(pattern mining based multi-objective evolutionary algorithm)[32]、TELSO(two-layer encoding learning swarm optimizer)[33]与DKCA(dynamic knowledge-guided coevolutionary algorithm)[34]

    1)基准测试问题。实验选取具有稀疏特性的8个多目标基准测试问题SMOP1~SMOP8[19]。由Tian等[19]设计的SMOP系列测试问题包含多种适应度情景,并且每个问题的Pareto最优解稀疏度与决策变量维数都可以进行扩展,能够在多种不同环境下测试算法的性能。其中每个测试问题的决策变量维数设定3种不同的数目,分别为100、500和1 000,目标数目设为2,Pareto最优解稀疏度设置为0.1。

    2)实际应用问题。为进一步验证HLsMOFA在实际测试问题中的性能,选择2类包含大规模多目标稀疏优化特性的实际应用,分别为投资组合优化问题[35]与稀疏信号重构问题[36]。投资组合优化问题旨在挖掘出最大投资回报和最小收益风险的组合,决策变量维数设定为100、500和1 000。稀疏信号重构问题希望在找到最稀疏的信号的情况下使误差最小,决策变量维数设定为128、520和1 024。

    3)种群规模与算法终止条件。为保证实验的公平性,所有多目标优化算法的实验环境均为Intel(R) Core(TM)i7-14700K CPU@3.40GHz, 64 GB内存,Windows 11 64位操作系统,且均在同台计算机的PlatEMO(platform for evolutionary multi-objective optimization)[37-38]平台上完成。基准测试问题中,算法终止条件即函数评估次数设置为$ 100\times D $次,种群规模设置为100。实际测试问题函数评估次数固定为25 000次,种群规模设置为50。

    4)性能指标与统计方式。基准测试问题的实验中,本文选取反世代距离(inverted generational distance, IGD)作为性能指标,该指标表示真实Pareto最优前沿中各个解,到算法生成的近似前沿中最近解的距离平均值,其值越小代表算法生成的近似前沿越接近真实Pareto最优前沿。IGD指标的数学公式为

    $$ \begin{cases} \mathrm{IGD}({\boldsymbol{P}}^{*},\boldsymbol{A})=\dfrac{1}{\left| {\boldsymbol{P}}^{*}\right| }\displaystyle\sum\limits_{{\boldsymbol{y}}^{*}\in {\boldsymbol{P}}^{*}}\underset{x\in \boldsymbol{P}}{\min }\;d({\boldsymbol{y}}^{*},\boldsymbol{A})\\ d({\boldsymbol{y}}^{*},\boldsymbol{A})=\underset{\boldsymbol{y}\in \boldsymbol{A}}{\min }\left\{\sqrt{\displaystyle\sum\limits_{i=1}^{m}{({\boldsymbol{y}_{i}^{*}}-{{\boldsymbol{y}}_{i}})}^{2}}\right\} \end{cases} $$

    式中:$ {\boldsymbol{P}}^{*} $为真实Pareto前沿,$ \boldsymbol{A} $代表算法生成的近似Pareto前沿,$ m $是目标个数。

    由于投资组合优化问题与稀疏信号重构问题无真实Pareto前沿,故在实际应用问题的实验中采用的性能指标为超体积(hypervolume, HV),该指标表示算法生成的近似前沿与参考点在目标空间中所围成的超立方体的体积。HV指标值越大,代表算法的收敛性与多样性越好。HV指标的数学公式为

    $$ \mathrm{HV}(S)=\mathrm{VOL}\left(\underset{x\in S}{\cup }[{f}_{1}(x),\textit{z}_{1}^{r}]\times \cdots \times [{f}_{m}(x),\textit{z}_{m}^{r}]\right) $$

    式中:$ \mathrm{VOL}\left(\cdot \right) $为勒贝格测度,$ m $是目标个数,$ {{\boldsymbol{z}}}^{r}= {({\textit{z}_{1}^{r}},{\textit{z}_{2}^{r}},\cdots ,{\textit{z}_{m}^{r}})}^{\mathrm{T}} $表示目标空间中定义的参考点。

    实验中所有算法在各测试函数的不同测试环境下独立运行30次以得到IGD和HV指标的均值与四分位差(interquartile range, IQR)。实验采用显著性水平为0.05的Wilcoxon秩和检验,评估各算法所得近似解集的统计性能差异。其中表1~4最后一行中,“+”、“−”和“=”分别表示对比算法在IGD或HV指标上显著优于、劣于及无显著差异于HLsMOFA。

    表  1  分层比例1∶4∶5的有效性分析实验
    Table  1  Effectiveness analysis experiment of the layered ratio of 1∶4∶5
    测试问题 M D 3.3∶3.3∶3.4 3∶3∶4 2∶3∶5 2.5∶2.5∶5 1∶2∶7 1∶3∶6 1∶4∶5
    SMOP1 2 100 1.0357×10−2
    (3.72×10−3)−
    9.5372×10−3
    (7.29×10−3)−
    6.5166×10−3
    (6.93×10−3)−
    5.8431×10−3
    (8.16×10−3)−
    4.1648×10−3
    (5.19×10−3)=
    6.6092×10−3
    (8.13×10−4)−
    4.1083×10−3
    (2.34×10−4)
    500 1.2765×10−2
    (2.09×10−3)−
    1.0107×10−2
    (8.47×10−3)−
    7.1490×10−3
    (1.82×10−3)−
    6.7663×10−3
    (8.81×10−3)−
    5.7181×10−3
    (8.92×10−4)=
    8.2137×10−3
    (6.98×10−3)−
    5.6534×10−3
    (2.46×10−3)
    1 000 2.2599×10−2
    (5.20×10−3)−
    1.7539×10−2
    (6.89×10−3)−
    8.3241×10−3
    (3.22×10−3)+
    9.6172×10−3
    (2.15×10−3)=
    1.1762×10−2
    (4.87×10−5)−
    1.1272×10−2
    (5.61×10−3)−
    9.5378×10−3
    (4.28×10−3)
    SMOP2 2 100 7.3946×10−3
    (1.53×10−3)−
    8.0542×10−3
    (9.01×10−2)−
    7.2834×10−3
    (8.18×10−2)−
    6.0062×10−3
    (9.02×10−3)−
    7.7762×10−3
    (8.27×10−4)−
    7.3761×10−3
    (5.89×10−3)−
    5.1539×10−3
    (5.72×10−4)
    500 3.1615×10−2
    (6.69×10−3)−
    3.0189×10−2
    (5.44×10−3)−
    4.7429×10−2
    (6.59×10−3)−
    5.8767×10−2
    (1.58×10−3)−
    2.9821×10−2
    (2.89×10−4)−
    4.7632×10−2
    (6.18×10−3)−
    2.4677×10−2
    (8.14×10−3)
    1 000 6.6377×10−2
    (4.49×10−3)−
    6.0262×10−2
    (7.81×10−3)−
    6.1345×10−2
    (7.41×10−3)−
    4.4892×10−2
    (2.90×10−3)−
    5.7561×10−2
    (1.90×10−2)−
    6.2761×10−2
    (7.73×10−3)−
    3.3622×10−2
    (7.31×10−3)
    SMOP3 2 100 6.0734×10−3
    (5.26×10−3)−
    3.8521×10−3
    (5.31×10−3)+
    4.0987×10−3
    (1.73×10−1)=
    7.7561×10−3
    (7.41×10−3)−
    7.0215×10−3
    (8.04×10−5)−
    5.2142×10−3
    (7.73×10−4)−
    4.0584×10−3
    (4.11×10−5)
    500 1.0823×10−2
    (4.03×10−3)−
    6.4761×10−3
    (7.01×10−3)−
    4.9862×10−3
    (6.98×10−3)−
    8.9751×10−3
    (8.06×10−3)−
    9.5388×10−3
    (5.29×10−4)−
    8.9821×10−3
    (7.48×10−3)−
    4.5872×10−3
    (1.71×10−4)
    1 000 9.4723×10−3
    (1.83×10−2)−
    7.7415×10−3
    (7.98×10−3)−
    7.7651×10−3
    (6.23×10−3)−
    1.7054×10−2
    (7.70×10−3)−
    1.2303×10−2
    (7.23×10−4)−
    9.2256×10−3
    (1.64×10−3)−
    5.8542×10−3
    (7.41×10−3)
    SMOP4 2 100 4.2354×10−3
    (3.63×10−5)−
    5.1893×10−3
    (3.13×10−4)−
    4.0127×10−3
    (3.93×10−5)+
    3.9601×10−3
    (4.73×10−5)+
    4.0137×10−3
    (7.11×10−5)+
    4.3674×10−3
    (7.41×10−4)−
    4.1276×10−3
    (4.81×10−5)
    500 4.2174×10−3
    (6.82×10−5)−
    5.3007×10−3
    (5.91×10−4)−
    4.0224×10−3
    (7.41×10−4)+
    3.9720×10−3
    (5.38×10−5)+
    4.0378×10−3
    (4.23×10−6)+
    4.3824×10−3
    (2.56×10−4)−
    4.1459×10−3
    (2.89×10−5)
    1 000 4.2021×10−3
    (6.72×10−5)=
    5.5785×10−3
    (8.88×10−4)−
    4.0832×10−3
    (6.72×10−5)+
    3.9133×10−3
    (2.16×10−5)+
    4.0764×10−3
    (2.16×10−6)+
    4.4086×10−3
    (5.60×10−4)−
    4.1622×10−3
    (3.78×10−5)
    SMOP5 2 100 5.6793×10−3
    (8.21×10−4)−
    6.0322×10−3
    (4.71×10−4)−
    5.6932×10−3
    (3.37×10−3)−
    5.8962×10−3
    (7.11×10−4)−
    7.0256×10−3
    (7.28×10−3)−
    5.9001×10−3
    (4.52×10−4)−
    5.2381×10−3
    (8.09×10−4)
    500 7.8732×10−3
    (5.38×10−5)−
    7.5311×10−3
    (4.29×10−4)=
    7.3927×10−3
    (8.94×10−3)=
    1.9067×10−2
    (1.87×10−3)−
    8.1872×10−3
    (5.09×10−4)−
    7.9165×10−3
    (3.64×10−4)−
    7.4365×10−3
    (1.21×10−5)
    1 000 9.7652×10−3
    (7.20×10−4)−
    9.6791×10−3
    (6.38×10−4)−
    8.5226×10−3
    (7.94×10−3)=
    2.4362×10−2
    (7.46×10−4)−
    9.8521×10−3
    (2.27×10−3)−
    8.0745×10−3
    (7.01×10−4)+
    8.4832×10−3
    (5.56×10−4)
    SMOP6 2 100 6.6782×10−3
    (8.16×10−4)−
    7.5430×10−3
    (7.93×10−4)−
    8.8631×10−3
    (4.54×10−3)−
    6.8294×10−3
    (1.71×10−3)−
    1.0547×10−2
    (3.13×10−3)−
    6.6729×10−3
    (5.21×10−4)−
    5.7488×10−3
    (4.48×10−4)
    500 6.2783×10−3
    (3.74×10−4)+
    7.5499×10−3
    (8.19×10−4)+
    1.2190×10−2
    (2.99×10−3)−
    1.1867×10−2
    (9.69×10−3)−
    1.9725×10−2
    (4.86×10−2)−
    7.5662×10−3
    (3.84×10−4)+
    8.3749×10−3
    (9.51×10−4)
    1 000 8.6927×10−3
    (1.17×10−3)+
    7.1568×10−3
    (4.96×10−3)+
    1.4237×10−2
    (7.91×10−4)−
    2.2631×10−2
    (8.01×10−4)−
    3.2515×10−2
    (2.76×10−3)−
    6.5612×10−3
    (7.82×10−4)+
    9.8931×10−3
    (2.66×10−3)
    SMOP7 2 100 1.0213×10−2
    (8.77×10−3)−
    2.8753×10−2
    (6.83×10−2)−
    7.3489×10−3
    (1.65×10−2)=
    2.0351×10−2
    (5.73×10−2)−
    9.5413×10−3
    (7.97×10−4)−
    1.0756×10−2
    (2.61×10−3)−
    7.3384×10−3
    (2.27×10−3)
    500 5.2463×10−2
    (6.43×10−2)−
    4.7981×10−2
    (5.87×10−2)−
    2.1842×10−2
    (2.87×10−3)+
    4.6659×10−2
    (8.05×10−3)−
    5.05452×10−2
    (7.09×10−6)−
    2.7312×10−2
    (4.31×10−3)+
    3.2573×10−2
    (7.53×10−3)
    1 000 7.7431×10−2
    (8.05×10−2)−
    8.2287×10−2
    (5.21×10−1)−
    3.9109×10−2
    (6.52×10−3)+
    7.0508×10−2
    (6.98×10−2)−
    7.9742×10−2
    (5.20×10−5)−
    4.0365×10−2
    (5.97×10−3)+
    4.5215×10−2
    (5.87×10−3)
    SMOP8 2 100 1.3762×10−1
    (6.42×10−2)−
    1.6347×10−1
    (6.06×10−2)−
    2.0702×10−1
    (7.89×10−2)−
    1.7837×10−1
    (8.10×10−2)−
    2.6452×10−1
    (8.18×10−4)−
    1.6456×10−1
    (6.72×10−2)−
    9.5688×10−2
    (3.89×10−2)
    500 1.9481×10−1
    (4.61×10−2)=
    2.4382×10−1
    (9.11×10−2)−
    2.8753×10−1
    (6.98×10−2)−
    3.1236×10−1
    (8.92×10−2)−
    2.8963×10−1
    (3.07×10−3)−
    2.1285×10−1
    (2.73×10−2)−
    1.9041×10−1
    (3.06×10−2)
    1 000 2.5386×10−1
    (7.89×10−2)−
    2.8903×10−1
    (4.04×10−2)−
    2.9214×10−1
    (4.43×10−2)−
    3.4509×10−1
    (7.02×10−2)−
    3.1006×10−1
    (9.44×10−4)−
    2.4952×10−1
    (7.54×10−2)−
    2.2389×10−1
    (8.70×10−2)
    +/−/= 2/20/2 3/20/1 6/14/4 3/20/1 3/19/2 5/19/0 −/−/−
    注:加粗数据为对应各算法在相同实验条件下的最优结果。
    表  2  HLsMOFA与6种算法的IGD值比较
    Table  2  Comparison of IGD values between HLsMOFA and six algorithms
    测试问题 M D SparseEA MOEAPSL SECSO PMMOEA TELSO DKCA HLsMOFA
    SMOP1 2 100 9.7982×10−3
    (4.52×10−3)−
    1.3121×10−2
    (5.19×10−3)−
    4.8408×10−2
    (8.13×10−3)−
    1.1236×10−2
    (6.26×10−3)−
    7.8460×10−2
    (9.15×10−7)−
    5.0366×10−3
    (6.79×10−4)−
    3.9686×10−3
    (1.78×10−4)
    500 1.7473×10−2
    (4.49×10−3)−
    1.9334×10−2
    (4.98×10−3)−
    5.8672×10−2
    (6.90×10−3)−
    1.6319×10−2
    (2.57×10−3)−
    7.7824×10−2
    (1.89×10−4)−
    7.2132×10−3
    (2.00×10−3)−
    5.5979×10−3
    (1.30×10−3)
    1000 2.6106×10−2
    (3.58×10−3)−
    2.1684×10−2
    (2.52×10−3)−
    6.1342×10−2
    (1.96×10−3)−
    2.0475×10−2
    (3.14×10−3)−
    7.7755×10−2
    (6.26×10−5)−
    1.1861×10−2
    (2.62×10−3)−
    9.7425×10−3
    (1.87×10−3)
    SMOP2 2 100 3.0115×10−2
    (1.07×10−2)−
    2.0096×10−2
    (1.20×10−2)−
    1.1338×10−1
    (1.57×10−2)−
    2.4860×10−2
    (1.38×10−2)−
    1.6283×10−1
    (1.95×10−7)−
    1.2358×10−2
    (6.71×10−3)−
    5.0516×10−3
    (1.22×10−3)
    500 4.8830×10−2
    (8.50×10−3)−
    4.4032×10−2
    (7.21×10−3)−
    1.2855×10−1
    (8.05×10−3)−
    3.8505×10−2
    (8.94×10−3)−
    1.6153×10−1
    (4.38×10−7)−
    2.5807×10−2
    (4.16×10−3)−
    2.4847×10−2
    (4.15×10−3)
    1000 6.7186×10−2
    (5.12×10−3)−
    5.0061×10−2
    (6.13×10−3)−
    1.3320×10−1
    (4.97×10−3)−
    5.0412×10−2
    (5.57×10−3)−
    1.6137×10−1
    (6.85×10−7)−
    4.4681×10−2
    (7.59×10−3)−
    3.3872×10−2
    (6.17×10−3)
    SMOP3 2 100 1.9148×10−2
    (4.52×10−3)−
    4.9554×10−2
    (1.30×10−1)−
    6.9558×10−2
    (1.54×10−1)−
    8.4348×10−3
    (4.23×10−3)−
    7.8460×10−2
    (4.48×10−7)−
    4.9343×10−3
    (6.13×10−4)−
    3.9494×10−3
    (6.08×10−5)
    500 2.1031×10−2
    (4.55×10−3)−
    1.9597×10−2
    (5.30×10−3)−
    6.0921×10−2
    (5.03×10−3)−
    1.6516×10−2
    (5.39×10−3)−
    7.7833×10−2
    (6.91×10−7)−
    6.1485×10−3
    (1.45×10−3)−
    4.6427×10−3
    (2.04×10−4)
    1000 2.9229×10−2
    (4.20×10−3)−
    2.1278×10−2
    (3.13×10−3)−
    6.2126×10−2
    (3.01×10−3)−
    2.1051×10−2
    (3.25×10−3)−
    7.7755×10−2
    (8.22×10−7)−
    9.4803×10−3
    (1.88×10−3)−
    5.8072×10−3
    (6.83×10−4)
    SMOP4 2 100 4.7792×10−3
    (2.77×10−4)−
    4.9218×10−3
    (3.62×10−4)−
    3.9563×10−3
    (8.53×10−5)+
    4.3314×10−3
    (8.77×10−5)−
    3.9265×10−3
    (8.50×10−6)+
    4.7811×10−3
    (3.42×10−4)−
    4.1318×10−3
    (6.60×10−5)
    500 4.6695×10−3
    (3.65×10−4)−
    5.2850×10−3
    (7.01×10−4)−
    3.9720×10−3
    (1.22×10−4)+
    4.3660×10−3
    (6.89×10−5)−
    3.9281×10−3
    (3.77×10−6)+
    4.7136×10−3
    (2.83×10−4)−
    4.1593×10−3
    (7.36×10−5)
    1000 4.7571×10−3
    (2.34×10−4)−
    5.0753×10−3
    (4.78×10−4)−
    3.9835×10−3
    (5.89×10−5)+
    4.3990×10−3
    (6.79×10−5)−
    3.9287×10−3
    (3.57×10−6)+
    4.6909×10−3
    (3.17×10−4)−
    4.1575×10−3
    (8.58×10−5)
    SMOP5 2 100 5.9581×10−3
    (5.47×10−4)−
    7.5436×10−3
    (2.79×10−4)−
    1.1760×10−2
    (1.38×10−3)−
    5.3099×10−3
    (7.08×10−4)=
    6.9902×10−3
    (4.64×10−3)−
    6.6193×10−3
    (5.58×10−4)−
    5.2502×10−3
    (1.01×10−3)
    500 6.0818×10−3
    (5.22×10−4)+
    7.8652×10−3
    (5.20×10−4)=
    1.1889×10−2
    (1.41×10−3)−
    4.8242×10−3
    (3.44×10−4)+
    1.2225×10−2
    (9.47×10−3)−
    7.1643×10−3
    (3.00×10−4)=
    7.4732×10−3
    (8.04×10−4)
    1000 5.9710×10−3
    (3.10×10−4)+
    9.2384×10−3
    (6.97×10−4)−
    1.1926×10−2
    (1.16×10−3)−
    4.5927×10−3
    (1.89×10−4)+
    8.9253×10−3
    (7.77×10−3)=
    6.3869×10−3
    (5.25×10−4)+
    8.5050×10−3
    (8.01×10−4)
    SMOP6 2 100 7.4304×10−3
    (7.22×10−4)−
    8.4660×10−3
    (5.34×10−4)−
    1.5948×10−2
    (3.74×10−3)−
    6.8294×10−3
    (1.71×10−3)−
    4.0345×10−2
    (9.02×10−3)−
    8.0579×10−3
    (7.25×10−4)−
    5.8253×10−3
    (6.53×10−4)
    500 7.1467×10−3
    (3.74×10−4)+
    9.1478×10−3
    (6.58×10−4)−
    1.1709×10−2
    (2.16×10−3)−
    4.9710×10−3
    (2.75×10−4)+
    3.5032×10−2
    (2.74×10−2)−
    7.8662×10−3
    (6.10×10−4)=
    8.2236e-3
    (1.20e-3)
    1000 7.2527×10−3
    (6.86×10−4)+
    1.1248×10−2
    (1.40×10−3)−
    1.0139×10−2
    (2.39×10−3)=
    4.8383×10−3
    (2.37×10−4)+
    3.8652×10−2
    (2.88×10−2)−
    7.6121×10−3
    (5.14×10−4)+
    1.0372×10−2
    (1.17×10−3)
    SMOP7 2 100 3.7705×10−2
    (1.26×10−2)−
    3.4246×10−2
    (3.03×10−2)−
    1.6990×10−1
    (1.65×10−2)−
    3.0653×10−2
    (1.85×10−2)−
    2.2950×10−1
    (2.74×10−4)−
    1.3680×10−2
    (8.31×10−3)−
    7.3721×10−3
    (3.00×10−3)
    500 6.1137×10−2
    (1.21×10−2)−
    5.6897×10−2
    (1.73×10−2)−
    1.8226×10−1
    (9.56×10−3)−
    5.6450×10−2
    (1.63×10−2)−
    2.2830×10−1
    (5.24×10−6)−
    2.8983×10−2
    (7.11×10−3)=
    3.1965×10−2
    (9.35×10−3)
    1000 8.5475×10−2
    (1.20×10−2)−
    6.1139×10−2
    (2.10×10−1)−
    1.9068×10−1
    (9.77×10−3)−
    7.4200×10−2
    (1.20×10−2)−
    2.2813×10−1
    (2.84×10−5)−
    5.6257×10−2
    (7.06×10−3)−
    4.6213×10−2
    (4.53×10−3)
    SMOP8 2 100 1.5931×10−1
    (2.81×10−2)−
    1.8073×10−1
    (6.27×10−2)−
    3.9300×10−1
    (5.53×10−2)−
    1.5070×10−1
    (4.14×10−2)−
    5.1256×10−1
    (7.98×10−4)−
    1.0466×10−1
    (3.88×10−2)−
    9.5506×10−2
    (3.24×10−2)
    500 2.1668×10−1
    (2.56×10−2)−
    2.8376×10−1
    (5.17×10−2)−
    4.1724×10−1
    (1.97×10−2)−
    1.7821×10−1
    (2.55×10−2)=
    5.1457×10−1
    (4.71×10−6)−
    1.3536×10−1
    (2.45×10−2)+
    1.8211×10−1
    (1.34×10−2)
    1000 2.4712×10−1
    (1.56×10−2)−
    3.8890×10−1
    (3.18×10−2)−
    4.2568×10−1
    (1.38×10−2)−
    2.0183×10−1
    (1.49×10−2)+
    5.1447×10−1
    (3.56×10−4)−
    1.6355×10−1
    (1.74×10−2)+
    2.3011×10−1
    (2.05×10−2)
    +/−/= 4/20/0 0/23/1 3/20/1 5/17/2 3/20/1 4/17/3 −/−/−
    注:加粗数据为对应各算法在相同实验条件下的最优结果。
    表  3  各算法在SMOP测试集上运行时间的实验结果
    Table  3  Experimental results of the running time of each algorithm on the SMOP test set s
    测试函数 M D SparseEA MOEAPSL SECSO PMMOEA TELSO DKCA HLsMOFA
    SMOP1 2 100 9.5192×10−1
    (3.91×10−1)+
    1.6494
    (2.72×10−1)−
    4.2623×10−1
    (1.66×10−1)+
    3.6560
    (5.52×10−1)−
    7.3064×10−1
    (1.43×10−1)+
    1.7346
    (7.52×10−2)−
    1.4476
    (1.08)
    500 15.7180
    (2.26)+
    29.4270
    (4.92)+
    4.6545
    (3.65×10−1)+
    40.4480
    (4.26)+
    10.1070
    (3.82×10−1)+
    24.4870
    (2.25×10−1)+
    48.4780
    (3.85)
    1000 36.8010
    (15.30)+
    112.4500
    (27.00)=
    12.1470
    (3.40×10−1)+
    105.3100
    (35.50)+
    18.7780
    (7.72×10−1)+
    51.9840
    (9.57×10−1)+
    119.0600
    (162.00)
    SMOP2 2 100 9.7669×10−1
    (4.96×10−2)+
    1.6386
    (8.40×10−2)−
    3.6649×10−1
    (4.25×10−2)+
    3.3199
    (1.27×10−1)−
    7.6344×10−1
    (5.40×10−2)+
    1.6436
    (5.45×10−2)−
    1.3366
    (1.83×10−1)
    500 14.7400
    (3.54×10−1)+
    24.7690
    (1.87)+
    4.2932
    (1.44×10−1)+
    38.4480
    (5.67×10−1)+
    9.7431
    (2.08×10−1)+
    24.6460
    (5.66×10−1)+
    47.8480
    (6.54)
    1000 31.7840
    (4.23×10−1)+
    50.5430
    (1.77)+
    7.7701
    (3.38×10−1)+
    65.4400
    (2.03)+
    17.7560
    (1.21)+
    51.8520
    (7.73×10−1)+
    101.8200
    (11.50)
    SMOP3 2 100 9.9482×10−1
    (5.13×10−2)+
    2.0387
    (1.68)−
    2.8618×10−1
    (5.05×10−2)+
    3.3739
    (9.80×10−2)−
    7.4549×10−1
    (5.90×10−2)+
    1.6268
    (8.14×10−2)−
    1.4635
    (7.72×10−1)
    500 15.2230
    (1.44×10−1)+
    27.0370
    (4.41)+
    4.7080
    (2.36×10−1)+
    40.6010
    (1.18)+
    9.8891
    (1.44×10−1)+
    24.6110
    (3.33×10−1)+
    50.4830
    (6.52)
    1000 32.2450
    (4.94×10−1)+
    52.5490
    (4.42)+
    7.9000
    (3.12×10−1)+
    63.8200
    (8.58)+
    17.7020
    (1.04)+
    51.2750
    (8.46×10−1)+
    105.4600
    (10.70)
    SMOP4 2 100 9.5493×10−1
    (3.16×10−2)+
    1.8617
    (5.72×10−2)−
    3.1764
    (3.68×10−1)−
    5.8971
    (1.25×10−1)−
    6.9965×10−1
    (1.00×10−1)+
    1.6838
    (1.05×10−1)−
    1.5315
    (4.41×10−1)
    500 14.0500
    (3.77×10−1)+
    61.8790
    (3.43)−
    31.7770
    (1.37)−
    59.1750
    (8.28×10−1)+
    9.5896
    (1.60×10−1)+
    24.6790
    (5.17×10−1)=
    24.5600
    (2.28×10−1)
    1000 29.7080
    (5.49×10−1)+
    114.1700
    (8.06)−
    51.9320
    (3.33)+
    105.8900
    (1.20)−
    17.4590
    (1.05)+
    54.4560
    (8.90×10−1)+
    98.7640
    (1.15)
    SMOP5 2 100 1.0272
    (6.02×10−2)+
    1.8853
    (1.25×10−1)−
    3.2232×10−1
    (3.62×10−2)+
    4.0926
    (1.04×10−1)−
    7.2638×10−1
    (3.80×10−2)+
    1.6909
    (1.05×10−1)−
    1.4361
    (5.81×10−1)
    500 14.6630
    (3.63×10−1)+
    66.8750
    (5.17)−
    3.8220
    (1.46×10−1)+
    50.1090
    (1.94)−
    9.5446
    (1.55×10−1)+
    24.7090
    (2.68×10−1)+
    43.6150
    (3.21)
    1000 32.4820
    (6.06×10−1)+
    134.1100
    (20.70)−
    6.7764
    (2.20×10−1)+
    90.3540
    (2.81)+
    18.5440
    (5.08×10−1)+
    52.7070
    (7.05×10−1)+
    102.1900
    (14.80)
    SMOP6 2 100 1.1576
    (4.98×10−2)+
    2.1607
    (1.77×10−1)−
    4.5930×10−1
    (3.32×10−2)+
    4.2923
    (1.66×10−1)−
    7.8780×10−1
    (3.68×10−2)+
    1.8212
    (7.68×10−2)−
    1.3980
    (2.51×10−1)
    500 16.8570
    (2.71×10−1)+
    65.1800
    (3.12)−
    6.0582
    (1.79×10−1)+
    51.2850
    (5.65×10−1)−
    11.5650
    (9.79×10−2)+
    26.8020
    (5.69×10−1)+
    39.9320
    (1.31)
    1000 37.2210
    (6.49×10−1)+
    135.1700
    (9.52)−
    11.5650
    (3.42×10−1)+
    93.3470
    (1.67)+
    22.5660
    (6.78×10−1)+
    57.0290
    (5.03×10−1)+
    106.3300
    (6.19)
    SMOP7 2 100 9.2969×10−1
    (4.28×10−2)+
    1.6131
    (1.23×10−1)−
    3.0613×10−1
    (4.65×10−2)+
    2.9996
    (6.87×10−2)−
    6.8904×10−1
    (3.34×10−2)+
    1.5714
    (6.64×10−2)−
    1.3727
    (5.75×10−1)
    500 10.5560
    (1.94×10−1)+
    16.4250
    (9.44)+
    2.5806
    (9.69×10−2)+
    27.1190
    (7.92×10−1)+
    6.4844
    (1.56×10−1)+
    17.5850
    (6.55×10−1)+
    37.9240
    (7.11)
    1000 32.4940
    (4.07×10−1)+
    55.0850
    (6.55)+
    7.2177
    (3.61×10−1)+
    65.1740
    (3.28)+
    18.6060
    (9.94×10−1)+
    51.5840
    (7.55×10−1)+
    100.7500
    (5.82)
    SMOP8 2 100 9.9653×10−1
    (3.81×10−2)+
    1.6664
    (1.10×10−1)−
    2.8250×10−1
    (3.44×10−2)+
    3.1482
    (1.42×10−1)−
    7.5336×10−1
    (5.82×10−2)+
    1.7230
    (5.73×10−2)−
    1.3062
    (2.15×10−1)
    500 9.2692
    (1.28×10−1)+
    14.9050
    (2.14)+
    3.9360
    (1.24×10−1)+
    34.9390
    (5.81×10−1)+
    9.7101
    (1.04×10−1)+
    24.4740
    (3.29×10−1)+
    44.6850
    (8.14)
    1000 31.9550
    (7.35×10−1)+
    44.3370
    (3.24)+
    6.9351
    (2.50×10−1)+
    58.9580
    (1.70)+
    18.9780
    (6.37×10−1)+
    52.0710
    (1.43)+
    98.8330
    (7.29)
    +/−/= 24/0/0 9/14/1 22/2/0 13/11/0 24/0/0 15/8/1 −/−/−
    注:加粗数据为对应各算法在相同实验条件下的最优结果。
    表  4  HLsMOFA与6种算法的HV值比较
    Table  4  Comparison of HV values between HLsMOFA and six algorithms
    测试问题 M D SparseEA MOEAPSL SECSO PMMOEA TELSO DKCA HLsMOFA
    Sparse_PO 2 100 1.0768×10−1
    (1.03×10−3)−
    1.0770×10−1
    (5.59×10−4)−
    1.0783×10−1
    (3.29×10−6)−
    1.0771×10−1
    (3.42×10−4)−
    1.0759×10−1
    (5.33×10−6)−
    1.0775×10−1
    (1.94×10−9)−
    1.0789×10−1
    (1.21×10−9)
    500 1.2032×10−1
    (6.98×10−2)−
    1.0844×10−1
    (3.67×10−3)−
    1.1955×10−1
    (5.88×10−5)−
    1.1735×10−1
    (4.76×10−7)−
    1.1889×10−1
    (7.42×10−5)−
    1.1916×10−1
    (9.52×10−8)−
    1.2088×10−1
    (4.21×10−7)
    1000 1.2333×10−1
    (8.72×10−3)−
    1.1229×10−1
    (6.52×10−4)−
    1.2157×10−1
    (7.54×10−4)−
    1.2118×10−1
    (2.36×10−5)−
    1.2185×10−1
    (8.26×10−6)−
    1.2236×10−1
    (5.93×10−6)−
    1.2474×10−1
    (7.88×10−6)
    Sparse_SR 2 128 3.6322×10−1
    (2.72×10−5)−
    3.5972×10−1
    (1.78×10−4)−
    3.4344×10−1
    (6.44×10−3)−
    3.6173×10−1
    (6.78×10−4)−
    3.0211×10−1
    (8.32×10−3)−
    4.1854×10−1
    (6.59×10−4)+
    4.1134×10−1
    (4.78×10−3)
    520 3.6479×10−1
    (7.52×10−6)−
    3.0822×10−1
    (4.93×10−5)−
    2.3742×10−1
    (7.79×10−5)−
    3.2018×10−1
    (5.56×10−4)−
    1.9566×10−1
    (7.21×10−5)−
    3.5911×10−1
    (6.12×10−3)−
    3.6833×10−1
    (3.89×10−5)
    1024 3.8718×10−1
    (8.43×10−3)−
    2.8944×10−1
    (5.22×10−7)−
    1.9742×10−1
    (4.74×10−4)−
    3.0852×10−1
    (7.32×10−4)−
    1.8582×10−1
    (4.41×10−4)−
    3.2438×10−1
    (6.93×10−5)−
    4.0127×10−1
    (4.72×10−3)
    +/−/= 0/6/0 0/6/0 0/6/0 0/6/0 0/6/0 1/5/0 −/−/−
    注:加粗数据为对应各算法在相同实验条件下的最优结果。

    5)参数设置。实验中对比算法均使用PlatEMO平台的默认参数。由于在MOFA中,光吸收系数$ \gamma $与最大吸引力$ {\beta }_{0} $一般取值为1,故在HLsMOFA中仅需要确定的参数是步长因子$ \alpha $。为确保算法在迭代初期实现高效的全局探索能力,并在迭代后期提升局部开发精度,故将步长因子设计为随迭代次数增加而动态减少的值,最终设定步长因子$ \alpha ={0.92}^{\tfrac{{F}_{{\mathrm{E}}}}{N}} $,其中$ {F}_{\mathrm{E}} $为算法当前的评估次数,$ N $为种群规模。该取值在搜索效率与精度之间实现了有效平衡。

    为验证分层学习模式采用1∶4∶5比例的有效性,设计实验方案如下:目标函数选择基准测试问题SMOP测试集,实验环境、种群规模与算法终止条件设置如前文所述。表1给出了7种比例设置与在24个测试环境下取得的IGD指标的均值与IQR。

    表1数据表明,采用1∶4∶5分层比例的HLsMOFA在基准测试问题上展现出显著优势。其中,1∶4∶5的分层比例在8个测试函数的24种不同测试环境下获得13次最优值,尤其在SMOP2与SMOP8测试函数中。表1的Wilcoxon秩和检验结果,进一步验证了1∶4∶5分层比例在实验中较其他分层比例表现更佳,证明其在解决LSMOPs时的有效性。

    分层学习模式采用的1∶4∶5分层比例通过理论设计与实验验证,在收敛性与多样性之间取得了有效平衡。其精英层确保算法不丢失优质解,潜力层的高比例增强了全局探索能力,在LSMOPs中展现出了良好的性能。

    HLsMOFA与6种对比算法在基准测试问题上得到IGD均值与IQR的对比结果如表2所示。

    表2可知,HLsMOFA在基准测试问题上较6种对比算法展现出了最佳性能。其中,HLsMOFA在8个测试函数的24种不同测试环境下获得14次最优值。例如在SMOP1、SMOP2与SMOP3上,HLsMOFA在这3个测试函数的3个不同维度测试环境中均取得了最佳测试结果。该优势主要源于得分引导初始化策略计算初始得分,并通过特征选择的得分更新机制对决策变量得分动态更新,维持Pareto最优解的稀疏特性。同时分层学习模式有效提升了种群的搜索能力。PMMOEA、TELSO与DKCA分别获得了4次、3次与3次最优值,SparseEA、MOEAPSL和SECSO未能取得最优的IGD结果。值得一提的是,HLsMOFA在未获得最优的几个测试环境中均与最优值为同一数量级,差距较小。

    根据表2的Wilcoxon秩和检验结果,HLsMOFA在实验中较6种对比算法表现更佳。充分说明HLsMOFA搜索的最优前沿最接近真实Pareto前沿,在LSMOPs中展现的收敛性和多样性较对比算法表现更佳。

    根据表3呈现的各算法在SMOP测试集上运行时间的实验结果,HLsMOFA在24个测试函数上均未取得最优结果。主要原因是,HLsMOFA的每次迭代过程均对得分进行动态更新,从而消耗了额外计算资源,相较于其他对比算法在运行时间上不占优势,但与花费最少时间的其他算法其时间消耗在一个数量级。由表2可知,HLsMOFA相较于对比算法具有良好的收敛性与多样性。依据No-Free-Lunch Theorem定理,HLsMOFA在综合性能提升的同时必然伴随计算复杂度的合理增加。综合来看,相较于其他对比算法,HLsMOFA在应对LSMOPs时展现出了更优的性能。

    为更直观展现HLsMOFA的算法性能,图8为各算法在部分具有代表性的SMOP测试函数上的3种不同决策变量数的Pareto前沿拟合图,选择的测试函数具有不同形式的真实Pareto前沿,分别为SMOP1、SMOP6和SMOP7。表中图的横纵坐标轴分别表示2个目标函数,实线为真实Pareto前沿,黑点代表着种群中的个体。种群与Pareto曲线越重合代表算法收敛性能越好,种群中的个体在Pareto前沿上分布得越均匀代表多样性越佳。从图8可看出,HLsMOFA与其他算法相比拟合效果较好,说明HLsMOFA的收敛性与多样性更佳。

    图  8  各算法在SMOP测试集上的Pareto前沿拟合图
    Fig.  8  Pareto front fitting plots of various algorithms on the SMOP test suite
    下载: 全尺寸图片

    HLsMOFA与6种对比算法在实际应用问题上得到HV均值与四分位差的对比结果如表4所示。由表4可知,本文提出的HLsMOFA在3个投资组合优化问题与3个稀疏信号重构问题中获得了5次最佳HV值,此外DKCA获得了一次最佳HV值。在Wilcoxon秩和检验结果中,HLsMOFA获得了最优结果。充分说明本文提出的算法在解决实际应用问题时也能展现出优秀的性能,是一种可靠的用于解决实际大规模稀疏多目标优化问题的算法。

    本文分析了多目标萤火虫算法在求解大规模稀疏多目标优化问题时面临的Pareto最优解稀疏性维持困难与种群收敛性不足的挑战,提出一种得分引导与特征选择的分层多目标萤火虫算法。该算法提出了一种得分引导的初始化策略,在初始化阶段计算决策变量初始得分,生成具有稀疏性的高质量初始化种群。构建了特征选择的得分更新机制,引入Relief算法计算特征权重,每次迭代中结合特征纯度共同更新决策变量得分,进而维持Pareto最优解的稀疏特性。设计了一种分层学习模式,将萤火虫种群按比例进行分层,从而减少移动过程中个体受全吸引模型影响而产生的振荡,提升了算法在大规模搜索空间中的收敛能力。将HLsMOFA与6种多目标优化算法,在8个基准测试函数与2个实际应用问题的不同决策变量数目环境下进行比较。实验结果显示在大规模稀疏多目标优化问题中HLsMOFA较6种对比算法具有更佳的综合优化性能,能够对大规模稀疏多目标优化问题进行有效求解。但随着决策变量数量的增加,算法的性能出现下降趋势,未来将进一步研究算法在1 000维以上的大规模稀疏优化问题上的表现。

  • 图  1   决策变量表示法

    Fig.  1   Decision variable representation

    下载: 全尺寸图片

    图  2   种群$ {\boldsymbol{Q}} $的示例

    Fig.  2   Example of population $ {\boldsymbol{Q}} $

    下载: 全尺寸图片

    图  3   得分排序子种群$ {\boldsymbol{P}} $,$ \boldsymbol{m} $($ D=9 $)的示例

    Fig.  3   Example of the score-ranking subpopulation $ {\boldsymbol{P}} $,$ \boldsymbol{m} $ ($ D=9 $)

    下载: 全尺寸图片

    图  4   本文策略与随机初始化策略生成的初始种群对比

    Fig.  4   Comparison of the initial populations generated between our strategy and the random initialization strategy

    下载: 全尺寸图片

    图  5   非零决策变量占比对比

    Fig.  5   Comparison of the proportion of non-zero decision variables

    下载: 全尺寸图片

    图  6   萤火虫分层示意

    Fig.  6   Firefly hierarchical illustration

    下载: 全尺寸图片

    图  7   优秀层萤火虫移动过程

    Fig.  7   Excellent layer firefly movement process

    下载: 全尺寸图片

    图  8   各算法在SMOP测试集上的Pareto前沿拟合图

    Fig.  8   Pareto front fitting plots of various algorithms on the SMOP test suite

    下载: 全尺寸图片

    表  1   分层比例1∶4∶5的有效性分析实验

    Table  1   Effectiveness analysis experiment of the layered ratio of 1∶4∶5

    测试问题 M D 3.3∶3.3∶3.4 3∶3∶4 2∶3∶5 2.5∶2.5∶5 1∶2∶7 1∶3∶6 1∶4∶5
    SMOP1 2 100 1.0357×10−2
    (3.72×10−3)−
    9.5372×10−3
    (7.29×10−3)−
    6.5166×10−3
    (6.93×10−3)−
    5.8431×10−3
    (8.16×10−3)−
    4.1648×10−3
    (5.19×10−3)=
    6.6092×10−3
    (8.13×10−4)−
    4.1083×10−3
    (2.34×10−4)
    500 1.2765×10−2
    (2.09×10−3)−
    1.0107×10−2
    (8.47×10−3)−
    7.1490×10−3
    (1.82×10−3)−
    6.7663×10−3
    (8.81×10−3)−
    5.7181×10−3
    (8.92×10−4)=
    8.2137×10−3
    (6.98×10−3)−
    5.6534×10−3
    (2.46×10−3)
    1 000 2.2599×10−2
    (5.20×10−3)−
    1.7539×10−2
    (6.89×10−3)−
    8.3241×10−3
    (3.22×10−3)+
    9.6172×10−3
    (2.15×10−3)=
    1.1762×10−2
    (4.87×10−5)−
    1.1272×10−2
    (5.61×10−3)−
    9.5378×10−3
    (4.28×10−3)
    SMOP2 2 100 7.3946×10−3
    (1.53×10−3)−
    8.0542×10−3
    (9.01×10−2)−
    7.2834×10−3
    (8.18×10−2)−
    6.0062×10−3
    (9.02×10−3)−
    7.7762×10−3
    (8.27×10−4)−
    7.3761×10−3
    (5.89×10−3)−
    5.1539×10−3
    (5.72×10−4)
    500 3.1615×10−2
    (6.69×10−3)−
    3.0189×10−2
    (5.44×10−3)−
    4.7429×10−2
    (6.59×10−3)−
    5.8767×10−2
    (1.58×10−3)−
    2.9821×10−2
    (2.89×10−4)−
    4.7632×10−2
    (6.18×10−3)−
    2.4677×10−2
    (8.14×10−3)
    1 000 6.6377×10−2
    (4.49×10−3)−
    6.0262×10−2
    (7.81×10−3)−
    6.1345×10−2
    (7.41×10−3)−
    4.4892×10−2
    (2.90×10−3)−
    5.7561×10−2
    (1.90×10−2)−
    6.2761×10−2
    (7.73×10−3)−
    3.3622×10−2
    (7.31×10−3)
    SMOP3 2 100 6.0734×10−3
    (5.26×10−3)−
    3.8521×10−3
    (5.31×10−3)+
    4.0987×10−3
    (1.73×10−1)=
    7.7561×10−3
    (7.41×10−3)−
    7.0215×10−3
    (8.04×10−5)−
    5.2142×10−3
    (7.73×10−4)−
    4.0584×10−3
    (4.11×10−5)
    500 1.0823×10−2
    (4.03×10−3)−
    6.4761×10−3
    (7.01×10−3)−
    4.9862×10−3
    (6.98×10−3)−
    8.9751×10−3
    (8.06×10−3)−
    9.5388×10−3
    (5.29×10−4)−
    8.9821×10−3
    (7.48×10−3)−
    4.5872×10−3
    (1.71×10−4)
    1 000 9.4723×10−3
    (1.83×10−2)−
    7.7415×10−3
    (7.98×10−3)−
    7.7651×10−3
    (6.23×10−3)−
    1.7054×10−2
    (7.70×10−3)−
    1.2303×10−2
    (7.23×10−4)−
    9.2256×10−3
    (1.64×10−3)−
    5.8542×10−3
    (7.41×10−3)
    SMOP4 2 100 4.2354×10−3
    (3.63×10−5)−
    5.1893×10−3
    (3.13×10−4)−
    4.0127×10−3
    (3.93×10−5)+
    3.9601×10−3
    (4.73×10−5)+
    4.0137×10−3
    (7.11×10−5)+
    4.3674×10−3
    (7.41×10−4)−
    4.1276×10−3
    (4.81×10−5)
    500 4.2174×10−3
    (6.82×10−5)−
    5.3007×10−3
    (5.91×10−4)−
    4.0224×10−3
    (7.41×10−4)+
    3.9720×10−3
    (5.38×10−5)+
    4.0378×10−3
    (4.23×10−6)+
    4.3824×10−3
    (2.56×10−4)−
    4.1459×10−3
    (2.89×10−5)
    1 000 4.2021×10−3
    (6.72×10−5)=
    5.5785×10−3
    (8.88×10−4)−
    4.0832×10−3
    (6.72×10−5)+
    3.9133×10−3
    (2.16×10−5)+
    4.0764×10−3
    (2.16×10−6)+
    4.4086×10−3
    (5.60×10−4)−
    4.1622×10−3
    (3.78×10−5)
    SMOP5 2 100 5.6793×10−3
    (8.21×10−4)−
    6.0322×10−3
    (4.71×10−4)−
    5.6932×10−3
    (3.37×10−3)−
    5.8962×10−3
    (7.11×10−4)−
    7.0256×10−3
    (7.28×10−3)−
    5.9001×10−3
    (4.52×10−4)−
    5.2381×10−3
    (8.09×10−4)
    500 7.8732×10−3
    (5.38×10−5)−
    7.5311×10−3
    (4.29×10−4)=
    7.3927×10−3
    (8.94×10−3)=
    1.9067×10−2
    (1.87×10−3)−
    8.1872×10−3
    (5.09×10−4)−
    7.9165×10−3
    (3.64×10−4)−
    7.4365×10−3
    (1.21×10−5)
    1 000 9.7652×10−3
    (7.20×10−4)−
    9.6791×10−3
    (6.38×10−4)−
    8.5226×10−3
    (7.94×10−3)=
    2.4362×10−2
    (7.46×10−4)−
    9.8521×10−3
    (2.27×10−3)−
    8.0745×10−3
    (7.01×10−4)+
    8.4832×10−3
    (5.56×10−4)
    SMOP6 2 100 6.6782×10−3
    (8.16×10−4)−
    7.5430×10−3
    (7.93×10−4)−
    8.8631×10−3
    (4.54×10−3)−
    6.8294×10−3
    (1.71×10−3)−
    1.0547×10−2
    (3.13×10−3)−
    6.6729×10−3
    (5.21×10−4)−
    5.7488×10−3
    (4.48×10−4)
    500 6.2783×10−3
    (3.74×10−4)+
    7.5499×10−3
    (8.19×10−4)+
    1.2190×10−2
    (2.99×10−3)−
    1.1867×10−2
    (9.69×10−3)−
    1.9725×10−2
    (4.86×10−2)−
    7.5662×10−3
    (3.84×10−4)+
    8.3749×10−3
    (9.51×10−4)
    1 000 8.6927×10−3
    (1.17×10−3)+
    7.1568×10−3
    (4.96×10−3)+
    1.4237×10−2
    (7.91×10−4)−
    2.2631×10−2
    (8.01×10−4)−
    3.2515×10−2
    (2.76×10−3)−
    6.5612×10−3
    (7.82×10−4)+
    9.8931×10−3
    (2.66×10−3)
    SMOP7 2 100 1.0213×10−2
    (8.77×10−3)−
    2.8753×10−2
    (6.83×10−2)−
    7.3489×10−3
    (1.65×10−2)=
    2.0351×10−2
    (5.73×10−2)−
    9.5413×10−3
    (7.97×10−4)−
    1.0756×10−2
    (2.61×10−3)−
    7.3384×10−3
    (2.27×10−3)
    500 5.2463×10−2
    (6.43×10−2)−
    4.7981×10−2
    (5.87×10−2)−
    2.1842×10−2
    (2.87×10−3)+
    4.6659×10−2
    (8.05×10−3)−
    5.05452×10−2
    (7.09×10−6)−
    2.7312×10−2
    (4.31×10−3)+
    3.2573×10−2
    (7.53×10−3)
    1 000 7.7431×10−2
    (8.05×10−2)−
    8.2287×10−2
    (5.21×10−1)−
    3.9109×10−2
    (6.52×10−3)+
    7.0508×10−2
    (6.98×10−2)−
    7.9742×10−2
    (5.20×10−5)−
    4.0365×10−2
    (5.97×10−3)+
    4.5215×10−2
    (5.87×10−3)
    SMOP8 2 100 1.3762×10−1
    (6.42×10−2)−
    1.6347×10−1
    (6.06×10−2)−
    2.0702×10−1
    (7.89×10−2)−
    1.7837×10−1
    (8.10×10−2)−
    2.6452×10−1
    (8.18×10−4)−
    1.6456×10−1
    (6.72×10−2)−
    9.5688×10−2
    (3.89×10−2)
    500 1.9481×10−1
    (4.61×10−2)=
    2.4382×10−1
    (9.11×10−2)−
    2.8753×10−1
    (6.98×10−2)−
    3.1236×10−1
    (8.92×10−2)−
    2.8963×10−1
    (3.07×10−3)−
    2.1285×10−1
    (2.73×10−2)−
    1.9041×10−1
    (3.06×10−2)
    1 000 2.5386×10−1
    (7.89×10−2)−
    2.8903×10−1
    (4.04×10−2)−
    2.9214×10−1
    (4.43×10−2)−
    3.4509×10−1
    (7.02×10−2)−
    3.1006×10−1
    (9.44×10−4)−
    2.4952×10−1
    (7.54×10−2)−
    2.2389×10−1
    (8.70×10−2)
    +/−/= 2/20/2 3/20/1 6/14/4 3/20/1 3/19/2 5/19/0 −/−/−
    注:加粗数据为对应各算法在相同实验条件下的最优结果。

    表  2   HLsMOFA与6种算法的IGD值比较

    Table  2   Comparison of IGD values between HLsMOFA and six algorithms

    测试问题 M D SparseEA MOEAPSL SECSO PMMOEA TELSO DKCA HLsMOFA
    SMOP1 2 100 9.7982×10−3
    (4.52×10−3)−
    1.3121×10−2
    (5.19×10−3)−
    4.8408×10−2
    (8.13×10−3)−
    1.1236×10−2
    (6.26×10−3)−
    7.8460×10−2
    (9.15×10−7)−
    5.0366×10−3
    (6.79×10−4)−
    3.9686×10−3
    (1.78×10−4)
    500 1.7473×10−2
    (4.49×10−3)−
    1.9334×10−2
    (4.98×10−3)−
    5.8672×10−2
    (6.90×10−3)−
    1.6319×10−2
    (2.57×10−3)−
    7.7824×10−2
    (1.89×10−4)−
    7.2132×10−3
    (2.00×10−3)−
    5.5979×10−3
    (1.30×10−3)
    1000 2.6106×10−2
    (3.58×10−3)−
    2.1684×10−2
    (2.52×10−3)−
    6.1342×10−2
    (1.96×10−3)−
    2.0475×10−2
    (3.14×10−3)−
    7.7755×10−2
    (6.26×10−5)−
    1.1861×10−2
    (2.62×10−3)−
    9.7425×10−3
    (1.87×10−3)
    SMOP2 2 100 3.0115×10−2
    (1.07×10−2)−
    2.0096×10−2
    (1.20×10−2)−
    1.1338×10−1
    (1.57×10−2)−
    2.4860×10−2
    (1.38×10−2)−
    1.6283×10−1
    (1.95×10−7)−
    1.2358×10−2
    (6.71×10−3)−
    5.0516×10−3
    (1.22×10−3)
    500 4.8830×10−2
    (8.50×10−3)−
    4.4032×10−2
    (7.21×10−3)−
    1.2855×10−1
    (8.05×10−3)−
    3.8505×10−2
    (8.94×10−3)−
    1.6153×10−1
    (4.38×10−7)−
    2.5807×10−2
    (4.16×10−3)−
    2.4847×10−2
    (4.15×10−3)
    1000 6.7186×10−2
    (5.12×10−3)−
    5.0061×10−2
    (6.13×10−3)−
    1.3320×10−1
    (4.97×10−3)−
    5.0412×10−2
    (5.57×10−3)−
    1.6137×10−1
    (6.85×10−7)−
    4.4681×10−2
    (7.59×10−3)−
    3.3872×10−2
    (6.17×10−3)
    SMOP3 2 100 1.9148×10−2
    (4.52×10−3)−
    4.9554×10−2
    (1.30×10−1)−
    6.9558×10−2
    (1.54×10−1)−
    8.4348×10−3
    (4.23×10−3)−
    7.8460×10−2
    (4.48×10−7)−
    4.9343×10−3
    (6.13×10−4)−
    3.9494×10−3
    (6.08×10−5)
    500 2.1031×10−2
    (4.55×10−3)−
    1.9597×10−2
    (5.30×10−3)−
    6.0921×10−2
    (5.03×10−3)−
    1.6516×10−2
    (5.39×10−3)−
    7.7833×10−2
    (6.91×10−7)−
    6.1485×10−3
    (1.45×10−3)−
    4.6427×10−3
    (2.04×10−4)
    1000 2.9229×10−2
    (4.20×10−3)−
    2.1278×10−2
    (3.13×10−3)−
    6.2126×10−2
    (3.01×10−3)−
    2.1051×10−2
    (3.25×10−3)−
    7.7755×10−2
    (8.22×10−7)−
    9.4803×10−3
    (1.88×10−3)−
    5.8072×10−3
    (6.83×10−4)
    SMOP4 2 100 4.7792×10−3
    (2.77×10−4)−
    4.9218×10−3
    (3.62×10−4)−
    3.9563×10−3
    (8.53×10−5)+
    4.3314×10−3
    (8.77×10−5)−
    3.9265×10−3
    (8.50×10−6)+
    4.7811×10−3
    (3.42×10−4)−
    4.1318×10−3
    (6.60×10−5)
    500 4.6695×10−3
    (3.65×10−4)−
    5.2850×10−3
    (7.01×10−4)−
    3.9720×10−3
    (1.22×10−4)+
    4.3660×10−3
    (6.89×10−5)−
    3.9281×10−3
    (3.77×10−6)+
    4.7136×10−3
    (2.83×10−4)−
    4.1593×10−3
    (7.36×10−5)
    1000 4.7571×10−3
    (2.34×10−4)−
    5.0753×10−3
    (4.78×10−4)−
    3.9835×10−3
    (5.89×10−5)+
    4.3990×10−3
    (6.79×10−5)−
    3.9287×10−3
    (3.57×10−6)+
    4.6909×10−3
    (3.17×10−4)−
    4.1575×10−3
    (8.58×10−5)
    SMOP5 2 100 5.9581×10−3
    (5.47×10−4)−
    7.5436×10−3
    (2.79×10−4)−
    1.1760×10−2
    (1.38×10−3)−
    5.3099×10−3
    (7.08×10−4)=
    6.9902×10−3
    (4.64×10−3)−
    6.6193×10−3
    (5.58×10−4)−
    5.2502×10−3
    (1.01×10−3)
    500 6.0818×10−3
    (5.22×10−4)+
    7.8652×10−3
    (5.20×10−4)=
    1.1889×10−2
    (1.41×10−3)−
    4.8242×10−3
    (3.44×10−4)+
    1.2225×10−2
    (9.47×10−3)−
    7.1643×10−3
    (3.00×10−4)=
    7.4732×10−3
    (8.04×10−4)
    1000 5.9710×10−3
    (3.10×10−4)+
    9.2384×10−3
    (6.97×10−4)−
    1.1926×10−2
    (1.16×10−3)−
    4.5927×10−3
    (1.89×10−4)+
    8.9253×10−3
    (7.77×10−3)=
    6.3869×10−3
    (5.25×10−4)+
    8.5050×10−3
    (8.01×10−4)
    SMOP6 2 100 7.4304×10−3
    (7.22×10−4)−
    8.4660×10−3
    (5.34×10−4)−
    1.5948×10−2
    (3.74×10−3)−
    6.8294×10−3
    (1.71×10−3)−
    4.0345×10−2
    (9.02×10−3)−
    8.0579×10−3
    (7.25×10−4)−
    5.8253×10−3
    (6.53×10−4)
    500 7.1467×10−3
    (3.74×10−4)+
    9.1478×10−3
    (6.58×10−4)−
    1.1709×10−2
    (2.16×10−3)−
    4.9710×10−3
    (2.75×10−4)+
    3.5032×10−2
    (2.74×10−2)−
    7.8662×10−3
    (6.10×10−4)=
    8.2236e-3
    (1.20e-3)
    1000 7.2527×10−3
    (6.86×10−4)+
    1.1248×10−2
    (1.40×10−3)−
    1.0139×10−2
    (2.39×10−3)=
    4.8383×10−3
    (2.37×10−4)+
    3.8652×10−2
    (2.88×10−2)−
    7.6121×10−3
    (5.14×10−4)+
    1.0372×10−2
    (1.17×10−3)
    SMOP7 2 100 3.7705×10−2
    (1.26×10−2)−
    3.4246×10−2
    (3.03×10−2)−
    1.6990×10−1
    (1.65×10−2)−
    3.0653×10−2
    (1.85×10−2)−
    2.2950×10−1
    (2.74×10−4)−
    1.3680×10−2
    (8.31×10−3)−
    7.3721×10−3
    (3.00×10−3)
    500 6.1137×10−2
    (1.21×10−2)−
    5.6897×10−2
    (1.73×10−2)−
    1.8226×10−1
    (9.56×10−3)−
    5.6450×10−2
    (1.63×10−2)−
    2.2830×10−1
    (5.24×10−6)−
    2.8983×10−2
    (7.11×10−3)=
    3.1965×10−2
    (9.35×10−3)
    1000 8.5475×10−2
    (1.20×10−2)−
    6.1139×10−2
    (2.10×10−1)−
    1.9068×10−1
    (9.77×10−3)−
    7.4200×10−2
    (1.20×10−2)−
    2.2813×10−1
    (2.84×10−5)−
    5.6257×10−2
    (7.06×10−3)−
    4.6213×10−2
    (4.53×10−3)
    SMOP8 2 100 1.5931×10−1
    (2.81×10−2)−
    1.8073×10−1
    (6.27×10−2)−
    3.9300×10−1
    (5.53×10−2)−
    1.5070×10−1
    (4.14×10−2)−
    5.1256×10−1
    (7.98×10−4)−
    1.0466×10−1
    (3.88×10−2)−
    9.5506×10−2
    (3.24×10−2)
    500 2.1668×10−1
    (2.56×10−2)−
    2.8376×10−1
    (5.17×10−2)−
    4.1724×10−1
    (1.97×10−2)−
    1.7821×10−1
    (2.55×10−2)=
    5.1457×10−1
    (4.71×10−6)−
    1.3536×10−1
    (2.45×10−2)+
    1.8211×10−1
    (1.34×10−2)
    1000 2.4712×10−1
    (1.56×10−2)−
    3.8890×10−1
    (3.18×10−2)−
    4.2568×10−1
    (1.38×10−2)−
    2.0183×10−1
    (1.49×10−2)+
    5.1447×10−1
    (3.56×10−4)−
    1.6355×10−1
    (1.74×10−2)+
    2.3011×10−1
    (2.05×10−2)
    +/−/= 4/20/0 0/23/1 3/20/1 5/17/2 3/20/1 4/17/3 −/−/−
    注:加粗数据为对应各算法在相同实验条件下的最优结果。

    表  3   各算法在SMOP测试集上运行时间的实验结果

    Table  3   Experimental results of the running time of each algorithm on the SMOP test set s

    测试函数 M D SparseEA MOEAPSL SECSO PMMOEA TELSO DKCA HLsMOFA
    SMOP1 2 100 9.5192×10−1
    (3.91×10−1)+
    1.6494
    (2.72×10−1)−
    4.2623×10−1
    (1.66×10−1)+
    3.6560
    (5.52×10−1)−
    7.3064×10−1
    (1.43×10−1)+
    1.7346
    (7.52×10−2)−
    1.4476
    (1.08)
    500 15.7180
    (2.26)+
    29.4270
    (4.92)+
    4.6545
    (3.65×10−1)+
    40.4480
    (4.26)+
    10.1070
    (3.82×10−1)+
    24.4870
    (2.25×10−1)+
    48.4780
    (3.85)
    1000 36.8010
    (15.30)+
    112.4500
    (27.00)=
    12.1470
    (3.40×10−1)+
    105.3100
    (35.50)+
    18.7780
    (7.72×10−1)+
    51.9840
    (9.57×10−1)+
    119.0600
    (162.00)
    SMOP2 2 100 9.7669×10−1
    (4.96×10−2)+
    1.6386
    (8.40×10−2)−
    3.6649×10−1
    (4.25×10−2)+
    3.3199
    (1.27×10−1)−
    7.6344×10−1
    (5.40×10−2)+
    1.6436
    (5.45×10−2)−
    1.3366
    (1.83×10−1)
    500 14.7400
    (3.54×10−1)+
    24.7690
    (1.87)+
    4.2932
    (1.44×10−1)+
    38.4480
    (5.67×10−1)+
    9.7431
    (2.08×10−1)+
    24.6460
    (5.66×10−1)+
    47.8480
    (6.54)
    1000 31.7840
    (4.23×10−1)+
    50.5430
    (1.77)+
    7.7701
    (3.38×10−1)+
    65.4400
    (2.03)+
    17.7560
    (1.21)+
    51.8520
    (7.73×10−1)+
    101.8200
    (11.50)
    SMOP3 2 100 9.9482×10−1
    (5.13×10−2)+
    2.0387
    (1.68)−
    2.8618×10−1
    (5.05×10−2)+
    3.3739
    (9.80×10−2)−
    7.4549×10−1
    (5.90×10−2)+
    1.6268
    (8.14×10−2)−
    1.4635
    (7.72×10−1)
    500 15.2230
    (1.44×10−1)+
    27.0370
    (4.41)+
    4.7080
    (2.36×10−1)+
    40.6010
    (1.18)+
    9.8891
    (1.44×10−1)+
    24.6110
    (3.33×10−1)+
    50.4830
    (6.52)
    1000 32.2450
    (4.94×10−1)+
    52.5490
    (4.42)+
    7.9000
    (3.12×10−1)+
    63.8200
    (8.58)+
    17.7020
    (1.04)+
    51.2750
    (8.46×10−1)+
    105.4600
    (10.70)
    SMOP4 2 100 9.5493×10−1
    (3.16×10−2)+
    1.8617
    (5.72×10−2)−
    3.1764
    (3.68×10−1)−
    5.8971
    (1.25×10−1)−
    6.9965×10−1
    (1.00×10−1)+
    1.6838
    (1.05×10−1)−
    1.5315
    (4.41×10−1)
    500 14.0500
    (3.77×10−1)+
    61.8790
    (3.43)−
    31.7770
    (1.37)−
    59.1750
    (8.28×10−1)+
    9.5896
    (1.60×10−1)+
    24.6790
    (5.17×10−1)=
    24.5600
    (2.28×10−1)
    1000 29.7080
    (5.49×10−1)+
    114.1700
    (8.06)−
    51.9320
    (3.33)+
    105.8900
    (1.20)−
    17.4590
    (1.05)+
    54.4560
    (8.90×10−1)+
    98.7640
    (1.15)
    SMOP5 2 100 1.0272
    (6.02×10−2)+
    1.8853
    (1.25×10−1)−
    3.2232×10−1
    (3.62×10−2)+
    4.0926
    (1.04×10−1)−
    7.2638×10−1
    (3.80×10−2)+
    1.6909
    (1.05×10−1)−
    1.4361
    (5.81×10−1)
    500 14.6630
    (3.63×10−1)+
    66.8750
    (5.17)−
    3.8220
    (1.46×10−1)+
    50.1090
    (1.94)−
    9.5446
    (1.55×10−1)+
    24.7090
    (2.68×10−1)+
    43.6150
    (3.21)
    1000 32.4820
    (6.06×10−1)+
    134.1100
    (20.70)−
    6.7764
    (2.20×10−1)+
    90.3540
    (2.81)+
    18.5440
    (5.08×10−1)+
    52.7070
    (7.05×10−1)+
    102.1900
    (14.80)
    SMOP6 2 100 1.1576
    (4.98×10−2)+
    2.1607
    (1.77×10−1)−
    4.5930×10−1
    (3.32×10−2)+
    4.2923
    (1.66×10−1)−
    7.8780×10−1
    (3.68×10−2)+
    1.8212
    (7.68×10−2)−
    1.3980
    (2.51×10−1)
    500 16.8570
    (2.71×10−1)+
    65.1800
    (3.12)−
    6.0582
    (1.79×10−1)+
    51.2850
    (5.65×10−1)−
    11.5650
    (9.79×10−2)+
    26.8020
    (5.69×10−1)+
    39.9320
    (1.31)
    1000 37.2210
    (6.49×10−1)+
    135.1700
    (9.52)−
    11.5650
    (3.42×10−1)+
    93.3470
    (1.67)+
    22.5660
    (6.78×10−1)+
    57.0290
    (5.03×10−1)+
    106.3300
    (6.19)
    SMOP7 2 100 9.2969×10−1
    (4.28×10−2)+
    1.6131
    (1.23×10−1)−
    3.0613×10−1
    (4.65×10−2)+
    2.9996
    (6.87×10−2)−
    6.8904×10−1
    (3.34×10−2)+
    1.5714
    (6.64×10−2)−
    1.3727
    (5.75×10−1)
    500 10.5560
    (1.94×10−1)+
    16.4250
    (9.44)+
    2.5806
    (9.69×10−2)+
    27.1190
    (7.92×10−1)+
    6.4844
    (1.56×10−1)+
    17.5850
    (6.55×10−1)+
    37.9240
    (7.11)
    1000 32.4940
    (4.07×10−1)+
    55.0850
    (6.55)+
    7.2177
    (3.61×10−1)+
    65.1740
    (3.28)+
    18.6060
    (9.94×10−1)+
    51.5840
    (7.55×10−1)+
    100.7500
    (5.82)
    SMOP8 2 100 9.9653×10−1
    (3.81×10−2)+
    1.6664
    (1.10×10−1)−
    2.8250×10−1
    (3.44×10−2)+
    3.1482
    (1.42×10−1)−
    7.5336×10−1
    (5.82×10−2)+
    1.7230
    (5.73×10−2)−
    1.3062
    (2.15×10−1)
    500 9.2692
    (1.28×10−1)+
    14.9050
    (2.14)+
    3.9360
    (1.24×10−1)+
    34.9390
    (5.81×10−1)+
    9.7101
    (1.04×10−1)+
    24.4740
    (3.29×10−1)+
    44.6850
    (8.14)
    1000 31.9550
    (7.35×10−1)+
    44.3370
    (3.24)+
    6.9351
    (2.50×10−1)+
    58.9580
    (1.70)+
    18.9780
    (6.37×10−1)+
    52.0710
    (1.43)+
    98.8330
    (7.29)
    +/−/= 24/0/0 9/14/1 22/2/0 13/11/0 24/0/0 15/8/1 −/−/−
    注:加粗数据为对应各算法在相同实验条件下的最优结果。

    表  4   HLsMOFA与6种算法的HV值比较

    Table  4   Comparison of HV values between HLsMOFA and six algorithms

    测试问题 M D SparseEA MOEAPSL SECSO PMMOEA TELSO DKCA HLsMOFA
    Sparse_PO 2 100 1.0768×10−1
    (1.03×10−3)−
    1.0770×10−1
    (5.59×10−4)−
    1.0783×10−1
    (3.29×10−6)−
    1.0771×10−1
    (3.42×10−4)−
    1.0759×10−1
    (5.33×10−6)−
    1.0775×10−1
    (1.94×10−9)−
    1.0789×10−1
    (1.21×10−9)
    500 1.2032×10−1
    (6.98×10−2)−
    1.0844×10−1
    (3.67×10−3)−
    1.1955×10−1
    (5.88×10−5)−
    1.1735×10−1
    (4.76×10−7)−
    1.1889×10−1
    (7.42×10−5)−
    1.1916×10−1
    (9.52×10−8)−
    1.2088×10−1
    (4.21×10−7)
    1000 1.2333×10−1
    (8.72×10−3)−
    1.1229×10−1
    (6.52×10−4)−
    1.2157×10−1
    (7.54×10−4)−
    1.2118×10−1
    (2.36×10−5)−
    1.2185×10−1
    (8.26×10−6)−
    1.2236×10−1
    (5.93×10−6)−
    1.2474×10−1
    (7.88×10−6)
    Sparse_SR 2 128 3.6322×10−1
    (2.72×10−5)−
    3.5972×10−1
    (1.78×10−4)−
    3.4344×10−1
    (6.44×10−3)−
    3.6173×10−1
    (6.78×10−4)−
    3.0211×10−1
    (8.32×10−3)−
    4.1854×10−1
    (6.59×10−4)+
    4.1134×10−1
    (4.78×10−3)
    520 3.6479×10−1
    (7.52×10−6)−
    3.0822×10−1
    (4.93×10−5)−
    2.3742×10−1
    (7.79×10−5)−
    3.2018×10−1
    (5.56×10−4)−
    1.9566×10−1
    (7.21×10−5)−
    3.5911×10−1
    (6.12×10−3)−
    3.6833×10−1
    (3.89×10−5)
    1024 3.8718×10−1
    (8.43×10−3)−
    2.8944×10−1
    (5.22×10−7)−
    1.9742×10−1
    (4.74×10−4)−
    3.0852×10−1
    (7.32×10−4)−
    1.8582×10−1
    (4.41×10−4)−
    3.2438×10−1
    (6.93×10−5)−
    4.0127×10−1
    (4.72×10−3)
    +/−/= 0/6/0 0/6/0 0/6/0 0/6/0 0/6/0 1/5/0 −/−/−
    注:加粗数据为对应各算法在相同实验条件下的最优结果。
  • [1] HUA Yicun, LIU Qiqi, HAO Kuangrong, et al. A survey of evolutionary algorithms for multi-objective optimization problems with irregular pareto fronts[J]. IEEE/CAA journal of automatica sinica, 2021, 8(2): 303−318. doi: 10.1109/JAS.2021.1003817
    [2] HAN Fei, CHEN Wentao, LING Qinghua, et al. Multi-objective particle swarm optimization with adaptive strategies for feature selection[J]. Swarm and evolutionary computation, 2021, 62: 100847. doi: 10.1016/j.swevo.2021.100847
    [3] KUMAR S, TEJANI G G, PHOLDEE N, et al. Multi-objective passing vehicle search algorithm for structure optimization[J]. Expert systems with applications, 2021, 169: 114511. doi: 10.1016/j.eswa.2020.114511
    [4] LI Wentao, ZHOU Haoxiang, XU Weihua, et al. Interval dominance-based feature selection for interval-valued ordered data[J]. IEEE transactions on neural networks and learning systems, 2022, 34(10): 6898−6912.
    [5] JIN Yaochu, SENDHOFF B. Pareto-based multiobjective machine learning: an overview and case studies[J]. IEEE transactions on systems, man, and cybernetics, part C (applications and reviews), 2008, 38(3): 397−415. doi: 10.1109/TSMCC.2008.919172
    [6] WANG Liping, PAN Xiaotian, SHEN Xiao, et al. Balancing convergence and diversity in resource allocation strategy for decomposition-based multi-objective evolutionary algorithm[J]. Applied soft computing, 2021, 100: 106968. doi: 10.1016/j.asoc.2020.106968
    [7] 曹嘉乐, 杨磊, 田井林, 等. 面向高维多目标优化的双阶段双种群进化算法[J]. 计算机工程与应用, 2024, 60(9): 159−171. doi: 10.3778/j.issn.1002-8331.2307-0381

    CAO Jiale, YANG Lei, TIAN Jinglin, et al. Dual-stage dual-population evolutionary algorithm for many-objective optimization[J]. Computer engineering and applications, 2024, 60(9): 159−171. doi: 10.3778/j.issn.1002-8331.2307-0381
    [8] 谢承旺, 潘嘉敏, 郭华, 等. 一种采用混合策略的大规模多目标进化算法[J]. 计算机学报, 2024, 47(1): 69−89. doi: 10.11897/SP.J.1016.2024.00069

    XIE Chengwang, PAN Jiamin, GUO Hua, et al. A large scale multi-objective evolutionary algorithm adopting hybrid strategies[J]. Chinese journal of computers, 2024, 47(1): 69−89. doi: 10.11897/SP.J.1016.2024.00069
    [9] 鲁昶. 基于进化算法的大规模稀疏多目标优化问题求解[D]. 合肥: 安徽大学, 2020.

    LU Chang. Solving large-scale sparse multi-objective optimization problems by evolutionary algorithms[D]. Hefei: Anhui University, 2020.
    [10] MA Yilin, HAN Ruizhu, WANG Weizhong. Portfolio optimization with return prediction using deep learning and machine learning[J]. Expert systems with applications, 2021, 165: 113973. doi: 10.1016/j.eswa.2020.113973
    [11] HAZIMEH H, MAZUMDER R, SAAB A. Sparse regression at scale: branch-and-bound rooted in first-order optimization[J]. Mathematical programming, 2022, 196(1): 347−388. doi: 10.1007/s10107-021-01712-4
    [12] SU Yansen, JIN Zhongxiang, TIAN Ye, et al. Comparing the performance of evolutionary algorithms for sparse multi-objective optimization via a comprehensive indicator [research frontier][J]. IEEE computational intelligence magazine, 2022, 17(3): 34−53. doi: 10.1109/MCI.2022.3180913
    [13] 李东旭. 求解复杂稀疏多目标优化问题的进化算法研究[D]. 合肥: 安徽大学, 2022.

    LI Dongxu. Research on evolutionary algorithms for solving complex sparse multi-objective optimization problems[D]. Hefei: Anhui University, 2022.
    [14] 金忠祥. 面向稀疏多目标优化的性能评价指标研究[D]. 合肥: 安徽大学, 2022.

    JIN Zhongxiang. Research on performance evaluation indicator for sparse multi-objective optimization[D]. Hefei: Anhui University, 2022.
    [15] ANTONIO L M, COELLO C A C. Use of cooperative coevolution for solving large scale multiobjective optimization problems[C]// Proceedings of the 2013 IEEE Congress on Evolutionary Computation. Cancun: IEEE, 2013: 2758−2765.
    [16] ZILLE H, ISHIBUCHI H, MOSTAGHIM S, et al. A framework for large-scale multiobjective optimization based on problem transformation[J]. IEEE transactions on evolutionary computation, 2017, 22(2): 260−275. doi: 10.1109/tevc.2017.2704782
    [17] TIAN Ye, ZHENG Xiutao, ZHANG Xingyi, et al. Efficient large-scale multiobjective optimization based on a competitive swarm optimizer[J]. IEEE transactions on cybernetics, 2019, 50(8): 3696−3708. doi: 10.2139/ssrn.4745662
    [18] HE Cheng, CHENG Ran, YAZDANI D. Adaptive offspring generation for evolutionary large-scale multiobjective optimization[J]. IEEE transactions on systems, man, and cybernetics: systems, 2020, 52(2): 786−798. doi: 10.1109/ssci52147.2023.10371890
    [19] TIAN Ye, ZHANG Xingyi, WANG Chao, et al. An evolutionary algorithm for large-scale sparse multiobjective optimization problems[J]. IEEE transactions on evolutionary computation, 2019, 24(2): 380−393. doi: 10.1016/j.swevo.2022.101093
    [20] TIAN Ye, LU Chang, ZHANG Xingyi, et al. Solving large-scale multiobjective optimization problems with sparse optimal solutions via unsupervised neural networks[J]. IEEE transactions on cybernetics, 2020, 51(6): 3115−3128.
    [21] TANG Jun, LIU Gang, PAN Qingtaso. A review on representative swarm intelligence algorithms for solving optimization problems: applications and trends[J]. IEEE/CAA journal of automatica sinica, 2021, 8(10): 1627−1643. doi: 10.1109/JAS.2021.1004129
    [22] YANG Xinshe. Multiobjective firefly algorithm for continuous optimization[J]. Engineering with computers, 2013, 29(2): 175−184. doi: 10.1007/s00366-012-0254-1
    [23] 赵嘉, 胡秋敏, 肖人彬, 等. 求解大规模稀疏优化问题的高维多目标萤火虫算法[J]. 控制与决策, 2024, 39(12): 3989−3996. doi: 10.13195/j.kzyjc.2024.0062

    ZHAO Jia, HU Qiumin, XIAO Renbin, et al. Many-objective firefly algorithm for solving large-scale sparse optimization problems[J]. Control and decision, 2024, 39(12): 3989−3996. doi: 10.13195/j.kzyjc.2024.0062
    [24] 刘丹, 邢文来, 张莹莹, 等. 纵横交叉和螺旋移动的萤火虫算法[J]. 江西科学, 2025, 43(2): 321−329. doi: 10.13990/j.issn1001-3679.2025.02.015

    LIU Dan, XING Wenlai, ZHANG Yingying, et al. Firefly algorithm with vertical horizontal crossover and spiral movement[J]. Jiangxi science, 2025, 43(2): 321−329. doi: 10.13990/j.issn1001-3679.2025.02.015
    [25] THENG D, BHOYAR K K. Feature selection techniques for machine learning: a survey of more than two decades of research[J]. Knowledge and information systems, 2024, 66(3): 1575−1637. doi: 10.1007/s10115-023-02010-5
    [26] KIRA K, RENDELL L A. A practical approach to feature selection[M]. San Francisco: Morgan Kaufmann, 1992.
    [27] KUMAR N, MANNA A K, SHAIKH A A, et al. Application of hybrid binary tournament-based quantum-behaved particle swarm optimization on an imperfect production inventory problem[J]. Soft Computing, 2021, 25(16): 11245−11267. doi: 10.1007/s00500-021-05894-z
    [28] ZITZLER E, LAUMANNS M, THIELE L. SPEA2: Improving the strength pareto evolutionary algorithm[J]. TIK report, 2001, 103.
    [29] 陈娟, 赵嘉, 肖人彬, 等. 基于动态反向学习和莱维飞行的双搜索模式萤火虫算法[J]. 信息与控制, 2023, 52(5): 607−615. doi: 10.13976/j.cnki.xk.2023.2352

    CHEN Juan, ZHAO Jia, XIAO Renbin, et al. Double search mode firefly algorithm based on dynamic reverse learning and levy flight[J]. Information and control, 2023, 52(5): 607−615. doi: 10.13976/j.cnki.xk.2023.2352
    [30] 赵嘉, 陈文平, 肖人彬, 等. 面向多峰优化问题的自主学习萤火虫算法[J]. 控制与决策, 2022(8): 1971−1980.

    ZHAO Jia, CHEN Wenping, XIAO Renbin, et al. Firefly algorithm based on self-learning for multi-peak optimization problem[J]. Control and decision, 2022(8): 1971−1980.
    [31] WANG Xiangyu, ZHANG Kai, WANG Jian, et al. An enhanced competitive swarm optimizer with strongly convex sparse operator for large-scale multiobjective optimization[J]. IEEE transactions on evolutionary computation, 2021, 26(5): 859−871. doi: 10.2139/ssrn.4551922
    [32] TIAN Ye, LU Chang, ZHANG Xingyi, et al. A pattern mining-based evolutionary algorithm for large-scale sparse multiobjective optimization problems[J]. IEEE transactions on cybernetics, 2020, 52(7): 6784−6797. doi: 10.70023/piqm242
    [33] QI Sheng, WANG Rui, ZHANG Tao, et al. A two-layer encoding learning swarm optimizer based on frequent itemsets for sparse large-scale multi-objective optimization[J]. IEEE/CAA journal of automatica sinica, 2024, 11(06): 1342−1357. doi: 10.1109/JAS.2024.124341
    [34] LI Yingwei, FENG Xiang, YU Huiqun. A dynamic knowledge-guided coevolutionary algorithm for large-scale sparse multiobjective optimization problems[J]. IEEE transactions on systems, man, and cybernetics: systems, 2024, 54(11): 7054−7064. doi: 10.1109/TSMC.2024.3446624
    [35] PONSICH A, JAIMES A L, COELLO C A C. A survey on multiobjective evolutionary algorithms for the solution of the portfolio optimization problem and other finance and economics applications[J]. IEEE transactions on evolutionary computation, 2013, 17(3): 321−344. doi: 10.1109/TEVC.2012.2196800
    [36] LU Hui, ZHANG Qingfu, DENG Jingda, et al. A preference-based multiobjective evolutionary approach for sparse optimization[J]. IEEE transactions on neural networks and learning systems, 2018, 29(5): 1716−1731. doi: 10.1109/TNNLS.2017.2677973
    [37] TIAN Ye, ZHU Weijian, ZHANG Xingyi, et al. A practical tutorial on solving optimization problems via PlatEMO[J]. Neurocomputing, 2023, 518: 190−205. doi: 10.1016/j.neucom.2022.10.075
    [38] TIAN Ye, CHENG Ran, ZHANG Xingyi, et al. PlatEMO: a matlab platform for evolutionary multi-objective optimization [educational forum][J]. IEEE computational intelligence magazine, 2017, 12(4): 73−87. doi: 10.1109/MCI.2017.2742868
WeChat 点击查看大图
图(8)  /  表(4)
出版历程
  • 收稿日期:  2025-05-22
  • 网络出版日期:  2026-02-05

目录

    /

    返回文章
    返回