广东工业大学学报  2018, Vol. 35Issue (4): 37-44.  DOI: 10.12052/gdutxb.170147.
0

引用本文 

周怡璐, 王振友, 李叶紫, 李锋. MOEA/D聚合函数的二次泛化及其优化性能分析[J]. 广东工业大学学报, 2018, 35(4): 37-44. DOI: 10.12052/gdutxb.170147.
Zhou Yi-lu, Wang Zhen-you, Li Ye-zi, Li Feng. A Quadratic Scalarizing Function in MOEA/D and its Performance on Multi and Many-Objective Optimization[J]. JOURNAL OF GUANGDONG UNIVERSITY OF TECHNOLOGY, 2018, 35(4): 37-44. DOI: 10.12052/gdutxb.170147.

基金项目:

广州市科技计划项目(201707010435);广东省研究生教育创新改革资助项目(2014JGXM-MS17)

作者简介:

周怡璐(1992–),女,硕士研究生,主要研究方向为算法设计与分析、最优化理论与方法。

通信作者

李锋(1977–),男,讲师,主要研究方向为算法设计与分析,E-mail:lfgdutnews@126.com

文章历史

收稿日期:2017-11-06
MOEA/D聚合函数的二次泛化及其优化性能分析
周怡璐, 王振友, 李叶紫, 李锋     
广东工业大学 应用数学学院,广东 广州  510520
摘要: 基于分解的多目标进化算法(Multi-objective Evolutionary Algorithm Based on Decomposition, MOEA/D)是多目标优化算法的一个重要分支, 多目标优化的关键问题是如何在算法的收敛性和散布性之间达到良好的平衡. 目前主流算法的聚合函数存在着不同的优缺点, 尤其是当使用切比雪夫方法选择个体时, 经常出现个体偏离权重现象, 个体和权重间得不到很好的粘合. 本文基于此提出了一种新的聚合函数方法, 提高了MOEA/D的性能. 该聚合函数的函数形式为二次函数, 种群个体在该函数下的等高线是一条二次曲线(本文称双曲线函数方法, Hyperbola Function Method, HYB), 是对目前存在的聚合函数的一种泛化形式. 该HYB方法相比PBI (Penalty-based Boundary Intersection)方法更强调收敛性, 能更容易地在收敛性散布性之间达到平衡. 本文测试了MOKP问题及DTLZ系列等测试函数, 并与其他算法进行了实验对比, 结果显示HYB方法更稳定有效且种群在收敛速度上有一定的提高.
关键词: 多目标优化    基于分解的多目标进化算法    聚合函数    
A Quadratic Scalarizing Function in MOEA/D and its Performance on Multi and Many-Objective Optimization
Zhou Yi-lu, Wang Zhen-you, Li Ye-zi, Li Feng     
School of Applied Mathematics, Guangdong University of Technology, Guangzhou 510520, China
Abstract: Multi-objective Evolutionary Algorithm Based on decomposition (MOEA/D) is an important branch. Achieving balance between convergence and diversity is a key issue in evolutionary multi-objective optimization. There are more or less deficiencies and shortcomings in the mainstream scalarizing functions. When using Tchebycheff to choose individuals, individuals often deviate from the weight and can not combine well with weight. On this basis, a new scalarizing function which improves performance of MOEA/D is presented. The scalarizing function is a quadratic function and its contour line is also a quadratic function (In this paper it is called Hyperbola function method, which is HYB.), which is a generalization to the current scalarizing functions. Comparing with PBI, this algorithm has better convergence and the balance between convergence and diversity is easily obtained. After testing MOKP and series of DTLZ and comparing with other algorithms, HYB is shown to be stable and effective and to improve the speed of convergence.
Key words: multi-objective optimization    multi-objective evolutionary algorithm based on decomposition (MOEA/D)    scalarizing functions    
1 问题的提出

不失一般性,多目标优化问题(multi-objective optimization-problem, MOP)可以表示为

$\left\{\begin{array}{l}{\rm{min}}\;{{F}}(x) = {({f_1}(x),{f_2}(x), \cdots ,{f_m}(x))^{\rm{T}}},\\{\rm{s.}}{\rm{t.}}\quad{{x}} \in \Omega .\end{array}\right.$ (1)

其中 $\Omega $ 是自变量空间,也称为决策空间, ${R^m}$ $m$ 维目标空间, ${{F}}:\Omega \to {R^m}$ $m$ 个定义在实数域上的目标函数组成. 如果 $\Omega $ ${R^n}$ 上的一个封闭连通区域,且所有的目标函数 ${f_i}(x)\;(i = 1,2, \cdots ,m)$ $\Omega $ 上连续,则称式(1)为连续MOP问题. 当 $m \geqslant 4$ 的多目标优化问题(MOP)也被称作为超多目标优化问题(MaOPs). 随着目标数的增多,MaOPs问题涉及了很多高维空间问题,如指数级的计算增长耗费、可扩展性差及难以可视化等.

${{u}} = ({u_1}, \cdots ,{u_m})$ ${{v}} = ({v_1}, \cdots ,{v_m}) \in {R^m}$ 为两个不同个体,如果有 ${{{u}}_i} \leqslant {{{v}}_i},\;i = 1,2, \cdots ,m$ ,则称 ${{u}}$ 支配 ${{v}}$ ,这也意味着“ ${{u}}$ ${{v}}$ 更好”. 称 ${{{x}}^*} \in \Omega $ 为Pareto优化解,当且仅当不存在个体 ${{x}} \in \Omega $ ,使得 ${{F}}({{x}})$ 支配 ${{F}}({{{x}}^*})$ . 所有Pareto优化解组成的集合叫做Pareto优化集,通常记为PS,而PS对应的目标函数集合 ${\rm{PF}} = \left\{ {{{F}}({{x}}) \in{R^m},}\right. $ $\left.{{{x}} \in {\rm{PS}}} \right\}$ ,称为Pareto前沿界面[1].

和单目标优化不同,MOP的最优解不是单个解而是一个解集,即Pareto优化集. 一些多目标进化算法已经被成功地应用到解决MOP上,在过去的十几年间逐渐成熟. 目前多目标进化算法主要有3种基本方法:(1) 基于Pareto支配的方法,代表算法有NSGA-II、SPEA-II、NSGA-III等[1-3];(2) 基于指标的方法,如IBEA、SMS-EMOA、HypE等[4-6];(3) 基于分解的方法,如MOEA/D、MOEA/D-DE等[7-11]. 本文则着重讨论第3种方法.

Zhang Q[7]在2007年提出了基于分解的多目标进化算法的基本框架,其主要的思想是通过聚合函数把MOP问题分解为一系列的目标子问题,一个子问题可以用一个权重向量来表示,每个子问题都可以视为一个单目标优化问题,并通过互相协助的方法求解它们. 对于标准的MOEA/D,当前进化种群内的每个个体和子问题之间是一一对应关系,一个个体对应着一个子问题,个体间的优胜劣汰并不依靠个体的目标函数值,而是通过比较聚合函数来完成. 基于此框架,许多MOEA/D的变种算法近几年不断被提出来,以应对不同的MOP问题,如使用差分变异算子的MOEA/D-DE[8],具有自适应权重的MOEA/D-AWA[10]和自动调配计算资源的MOEA/D-GRA[11]. Trivedi对最近的MOEA/D发展进行了详细的报告[12].

如上述所说,聚合函数被用于作为衡量一个个体优劣的适应值函数. 聚合函数通常是一个在给定权重 $\lambda $ 条件下,关于个体 $x$ 在目标空间上的函数,一般记为g(x|λ),而对每个子问题的优化则被看做是对聚合函数的优化. 通常可以通过聚合函数的等高线来描述该函数的一些性质,即在目标空间上把具有相等聚合函数值的相邻各点连接成曲线. 反之,对任意两个个体 ${{{x}}_1},{{{x}}_2} \in \Omega $ ,若它们对应的目标函数值向量 ${{F}}({{{x}}_1})$ ${{F}}({{{x}}_2})$ 在同一等高线上,则有 $g({{{x}}_1}| {{\lambda}} ) = $ $g({{{x}}_2}|{{\lambda}} )$ .

目前MOEA/D主要使用的有3个聚合函数[7, 12]:加权和(Weighted Sum)、切比雪夫方法(Tchebycheff)和PBI方法(Penalty-based Boundary Intersection).

基于上述方法,本文提出一种新的聚合函数. 不同于上述的方法,其特点和优势包括以下方面:

(1) 该聚合函数是一个二次函数,其个体的等高线是一条二次光滑曲线,不同于切比雪夫方法和PBI方法,这两者的个体等高线都是一次非光滑的. 因此该方法可以看成是对上述3种聚合函数的一种泛化及光滑化方法.

(2) 该聚合函数在局部控制个体的收敛性,而在全局则控制其散布性,达到收敛性和散布性之间的平衡.

(3) 有异于PBI方法,该聚合函数的等高线形状与权重无关,只受参数的影响,即若参数一定,则该聚合函数的等高线形状处处相同. 这也使得该方法对参数的调节不敏感,对不同的MOP使用固定参数也能有较好的表现.

2 双曲线聚合函数 2.1 建立

首先,为了方便说明,本文省略了对参考点的讨论,即在假设 ${{{z}}^*} = (0, \cdots ,0)$ 下进行的讨论,在实际中只要令 ${{F}}({{x}}) = {{F}}({{x}}) - {{{z}}^*}$ 即可.

在这一节提出一个聚合函数,因为其函数值的等高线是一条双曲线,所以以下称之为双曲线方法(HYB 方法).

在数学上,考虑最优化以下函数:

${\rm{min}}\;{g^{{\rm{HYB}}}}({{x}}|{{\lambda }})\;{\rm{ = }}{f_1}^\prime - \sqrt {{\alpha ^2} + {{(\theta {f_2}^\prime )}^2}} ,$ (2)

其中 $({f_1}^\prime ,{f_2}^\prime )$ 为目标向量 $({f_1},{f_2})$ 的一个变换,一般为

$\left\{ {\begin{array}{*{20}{c}}{{f_1}^\prime = \displaystyle\frac{{ - 1}}{{\sqrt 2 }}(\displaystyle\frac{{{f_1}({{x}})}}{{{{{\lambda }}_1}}} + \displaystyle\frac{{{f_2}({{x}})}}{{{{{\lambda }}_2}}})},\\[15pt]{{f_2}^\prime = \displaystyle\frac{1}{{\sqrt 2 }}(\displaystyle\frac{{{f_1}({{x}})}}{{{{{\lambda }}_1}}} - \displaystyle\frac{{{f_2}({{x}})}}{{{{{\lambda }}_2}}})},\end{array}} \right.$ (3)

$\alpha $ $\theta $ 是两个预先设置的参数, $\alpha $ 控制函数弯曲程度, $\theta $ 控制函数的张角. 显然,该聚合函数的一个缺点是有两个参数,即上述所说的 $\alpha $ $\theta $ . 尽管如此,参数的调节并不会十分困难,一般有 $\alpha \leqslant 0.1$ ,因此参数 $\alpha $ 对函数的影响不会十分明显,一般是微调时才使用. 另一个减少参数的方法就是令 $\theta $ 自适应动态调节,建议可以令 $\theta {\rm{ = }}1{\rm{ + min}}\{ {k_1},{k_2}\} $ ,其中 ${k_i}$ 为权重向量 ${{\lambda }} $ 与目标空间上的各坐标轴夹角余弦. 该方法的设计原理是令靠近坐标轴的权重在选择个体时增大个体的支配范围,进而更加强调收敛性,令远离坐标轴的权重在选择时缩小个体支配范围,进而更强调散布性.

事实上,该聚合函数的参数调节是很直观的:该函数的函数值等高线是一条双曲线,而这两个参数就是用于控制该双曲线的形状的. 参数 $\alpha $ 是双曲线的实轴长, $\alpha $ 越小表示曲线越尖, $\theta $ 是该双曲线的渐近线斜率的倒数,当 $\theta > 1$ 则该双曲线的张开角度为锐角,反之为钝角.

控制两个参数可以得到不同形状的聚合函数. 特别地,若令 $\alpha = 0,\;\theta = 1$ ,则该方法即为切比雪夫方法;若令 $\alpha = 0,\;\theta > 0$ ,且令式(3)改为以下形式:

$\begin{array}{l}\left\{ {\begin{array}{*{20}{c}}{{f_1}^\prime = \displaystyle\frac{{ - 1}}{r}({{{\lambda }}_1}{f_1}({{x}}) + {{{\lambda }}_2}{f_2}({{x}})),}\\[13pt]{{f_2}^\prime = \displaystyle\frac{1}{r}({{{\lambda }}_2}{f_1}({{x}}) - {{{\lambda }}_1}{f_2}({{x}}));}\end{array}} \right.\\[25pt]r = \sqrt {{{{\lambda }}_1}^2 + {{{\lambda }}_2}^2} .\end{array}$ (4)

则该方法即为PBI方法,式(3)和式(4)两者都是旋转变换,它们的区别在于式(3)在变换前多做了一个标准化变换;若令 $\alpha = 0,\;\theta {\rm{ = }}\;0$ 且使用式(4),则该方法是加权和方法. 可以看出,式(2)其实是对目前存在的聚合函数的一个泛化,是它们的一个更一般的形式.

下面考察 $\alpha > 0\text{、}\;\theta > 0$ 的情况,先对个体进行一个变换,该变换的目的是让个体和权重标准化,方法是用个体的坐标除以当前权重向量,即 ${{F}}'({{x}}) = {{F}}({{x}})/ {{\lambda }} $ ,它的函数几何意义如图1(a),接着将权重旋转到与坐标轴重合,个体与权重的相对位置不变,即对个体进行一次旋转变换,如图1(b),对标准化后的个体计算式(2),在目标空间上,设任意个体 ${{x}}$ 在目标空间上的映射 ${{F}}({{x}}) \in {R^m}$ ,曲线 $L$ 为经过点 ${{F}}({{x}})$ 且以 ${{\lambda}} '$ 为横轴的双曲线,则有 ${g^{{\rm{HYB}}}}({{x}}|{{\lambda }}) = d + \alpha $ ,其中 $d$ 是双曲线渐近线的交点到原点的距离. 显然,处于同一双曲线上的所有点均具有相同的聚合函数值,根据等高线定义,曲线 $L$ 是该聚合函数的一条经过个体 ${{x}}$ 的等高线.

由此可以画出双曲线方法对应的个体等高线,并与其他聚合函数的等高线进行对比,如图2所示,其中 ${{\lambda}} '$ 为任意一个权重,首先一个很明显的特点就是,双曲线函数把目前流行的聚合函数都进行了光滑化,消除了目前流行的聚合函数弱有效解问题.

图2(a)展示了 $\alpha = 0\text{、}\;\theta = 1$ 时HYB方法与切比雪夫方法之间的等高线对比图,显然对于远离权重的个体而言,两者具有相似的函数值与等高线,而当个体靠近权重时HYB方法等高线呈弯曲形状,可以认为这样的形状更强调收敛性;图2(b)展示了一般情况下HYB方法与PBI方法的等高线对比图,同样有相似的结论,该等高线受 $\alpha $ $\theta $ 两个参数控制,一个控制收敛性,一个控制散布性. 图2(b)第1张图对应式(4),第2张图对应式(3),两者之间最大的不同在于,第1张图的等高线形状是关于权重 ${{\lambda}} '$ 呈轴对称的,第2张图则不是对称,而是权重 ${{\lambda}} '$ 左右两侧的等高线与权重所成的夹角对应成比例,这种区别在图中的虚线部分可以看出来.

图 1 双曲线聚合函数式(2)的几何意义 Figure 1 The geometric meaning of Eq.(2)

从该函数等高线可以知道,如果两个体都比较靠近权重 ${{\lambda}} $ ,即个体处于函数等高线的弯曲部分时,往原点靠近的个体会具有更小的聚合函数值,更加占优势,即可以认为此时更强调收敛性;反之当两个个体都远离权重 ${{\lambda}} $ ,这时函数的等高线近似于直线(由于靠近渐近线的原因)且主要受聚合函数的张开角度影响,距离权重近的个体更占优势,即这时散布性成为主要影响因素.

图 2 各聚合函数的等高线对比图 Figure 2 The contour comparison of each scalarizing function
2.2 分析

这一节本文进一步讨论该聚合函数的推导过程及推广. 首先考虑式(4)变换的情况,设个体 ${{x}}$ 在目标空间上的映射为 ${{F}}({{x}})$ ,权重 ${{\lambda}} {\rm{ = (}}{\lambda _1}{\rm{,}}{\lambda _2}{\rm{)}}$ ,对 ${{F}}({{x}})$ 应用式(4),即对 ${{F}}({{x}})$ 进行旋转变换,旋转角度为权重与坐标的夹角 $\theta {\rm{ = }} - \arctan \displaystyle\frac{{{\lambda _2}}}{{{\lambda _1}}}$ (由于逆时针旋转,故旋转角度为负),得到 ${{F}}'({{x}}) = ({f_1}^\prime ,\;{f_2}^\prime )$ ,如图1(b).

因为曲线L为双曲线,故曲线L函数表达式为

${({f_1} - d - \alpha )^2} - {(\theta {f_2})^2} = {\alpha ^2}.$ (5)

又因为曲线 $L$ 经过 ${{F}}'({{x}})$ ,把 ${{F}}'({{x}})$ 代入曲线 $L$ 可得

$d + \alpha {\rm{ = }}\;{f_1}^\prime - \sqrt {{\alpha ^2} + {{(\theta {f_2}^\prime )}^2}} .$ (6)

于是,可以有 ${g^{{\rm{HYB}}}}({{x}}|{{\lambda }}) = d + \alpha $ ,对于曲线 $L$ 上的任意两点 ${{F}}'({{{x}}_1})$ ${{F}}'({{{x}}_2})$ ,恒有 ${g^{{\rm{HYB}}}}({{{x}}_1}|{{\lambda }}) = {g^{{\rm{HYB}}}}({{{x}}_2}|{{\lambda }}) =$ $d + \alpha $ ,此式便可以反映出曲线 $L$ 是该聚合函数的一条等高线. 上述方法是从等高线推导函数解释式的方法.

下面讨论式(3)变换的情况,同理,先对 ${{F}}({{x}})$ 进行标准化处理,做法是用个体的各维度坐标除以当前权重向量的各维度坐标,即 ${{F}}'({{x}}) = \displaystyle\frac{{{{F}}({{x}})}}{{{\lambda}} }$ . 标准化后可以认为此时权重向量有 ${{\lambda}} ' = (1, \cdots ,1)$ ,用 ${{\lambda}} '$ ${{F}}'({{x}})$ 代入式(4)即可得到式(3). 推导过程完毕.

下面进行推广,把聚合函数式(2)和式(3)推广到高维上,以解决超多目标问题(MaOPs). 事实上,要做到这一步,只需要建立一个包含向量 ${{\lambda}} ' = ( - 1, \cdots , - 1)$ 的标准正交基即可,其余推导过程与上述类此,但形式更复杂,此处不做赘述.

$m$ 维目标空间上,考虑优化以下函数:

${g^{{\rm{HYB}}}}({{x}}|{{\lambda }}) = {f_1}^\prime - \sqrt {{\alpha ^2} + {{(\theta {{f'}_2})}^2} + \cdots + {{(\theta {{f'}_m})}^2}} ,$ (7)

其中, $({f_1}^\prime , \cdots ,{f_m}^\prime )$ $({f_1}, \cdots ,{f_m})$ 做以下基变换得到:

$\left( {\begin{array}{*{20}{c}}{{f_1}^\prime }\\[8pt] \vdots \\[8pt]{{f_m}^\prime }\end{array}} \right) = \left( {\begin{array}{*{20}{c}}{\displaystyle\frac{1}{{\sqrt m }}} & \cdots & {\displaystyle\frac{1}{{\sqrt m }}}\\[8pt] \vdots & {} & \vdots \\[8pt]{\displaystyle\frac{1}{{\sqrt {i + {i^2}} }}} & \cdots & {\displaystyle\frac{1}{{\sqrt {i + {i^2}} }}}\\[8pt] \vdots & {} & \vdots \\[8pt]{\displaystyle\frac{1}{{\sqrt 2 }}} & \cdots & {\displaystyle\frac{1}{{\sqrt 2 }}}\end{array}} \right){\rm{*}}{{A}}\left( {\begin{array}{*{20}{c}}{\displaystyle\frac{{{f_1}}}{{{\lambda _1}}}}\\[8pt] \vdots \\[8pt]{\displaystyle\frac{{{f_m}}}{{{\lambda _m}}}}\end{array}} \right),$
${{A}}{\rm{ = }}\left( {\begin{array}{*{20}{c}}{ - 1} & { - 1} & \cdots & { - 1} & { - 1} & { - 1} \\[5pt]1 & 1 & \cdots & 1 & 1 & {1 - m} \\[5pt]1 & 1 & \cdots & 1 & {2 - m} & 0 \\[5pt]1 & 1 & \cdots & {3 - m} & 0 & 0 \\[5pt]\vdots & \vdots & {} & \vdots & \vdots & \vdots \\[5pt]1 & { - 1} & \cdots & 0 & 0 & 0\end{array}} \right).$ (8)

其中*表示Hadamard乘积, $i = 1, \cdots ,m - 1$ ${{A}}$ $m \times m$ 矩阵. 同理,式(7)是考虑聚合函数的个体等高线为双叶双曲面而推导出来的.

3 实验对比

为了证明本文提出的聚合函数的有效性,本文通过实验的方法来测试该聚合函数的健壮性、稳定性和性能效果.

3.1 实验设置

下面的讨论和实验均在标准MOEA/D下进行,即第1章介绍的MOEA/D算法框架. 标准MOEA/D把问题(1)分解为 $N$ 个子问题,并尝试一次性把子问题都求解出来. 在进化过程中,每个子问题与其他一些子问题存在“邻居”的关系,该子问题的进化选择都在邻居对应的个体之间进行,而跟其他个体无关.

本文比较了5个算法的性能表现,前4个是标准MOEA/D算法,分别使用了切比雪夫、PBI、逆PBI和双曲线方法4个聚合函数[7, 13],其中邻居数目统一为 $T{\rm{ = }}20$ ,第5个是NSGA-III算法[3],NSGA-III算法是NSGA-II 的加强版本.

在测试函数方面,测试了离散多目标背包问题(MOKP)[14]和连续多目标优化问题DTLZ系列[15]. DTLZ的问题定义在Deb的文献[15]上有详细介绍,此处不做说明.

MOKP问题若作为最小化问题进行求解,则可以定义为优化以下式子:

$\left\{ {\rm{ }}\begin{array}{*{20}{l}}{{\rm{min}}}\;{{{f'}_j}({{x}}) = \displaystyle\sum\nolimits_{i = 1}^n {{{{p}}_{i,j}}} - \displaystyle\sum\nolimits_{i = 1}^n {{{{x}}_i} {{{p}}_{i,j}},} }\\[10pt]{{\rm{s.t.}}}\quad{{g_j}({{x}}) = \displaystyle\sum\nolimits_{i = 1}^n {{{{x}}_i} \cdot {{{w}}_{i,j}}} \leqslant {{{c}}_j}.}\end{array} \right.$ (9)

其中 ${{{p}}_{i,j}}$ ${{{w}}_{i,j}}(j = 1, \cdots ,m)$ 分别表示物品 $i$ 相对于背包(即目标) $j$ 的价值及其重量,即在 $j$ 条件下 $i$ 的价值及重量,求解该问题需要最大化各背包的总价值. 背包的容量根据 ${{{c}}_j} =\phi \displaystyle\sum\nolimits_{i = 1}^n {{w_{i,j}}} $ 给出, $\phi $ 为设定的参数,表示全体可行解在自变量空间中所占的比例,该参数刻画着MOKP问题的求解难易程度.

为了测试该方法的可用性及可扩展性,本文不仅比较了多目标优化问题的算法表现性能,也测试了算法在超多目标优化问题上的性能(MaOPs),即令 $m \geqslant 4$ . 两类测试函数的目标空间维度均设置为 $m = \left\{ {2,3,4,5,6,7,8} \right\}$ . 对应地,产生权重 ${{\lambda}} $ 的分解参数及种群数均在表1中给出,最大的迭代数根据不同实验而设置不同,MOKP问题的最大迭代数此处设置为104,而DTLZ系列的最大迭代数在表2中给出. 5个算法均使用相同的权重,关于权重的设定本实验沿用目前流行的权重产生方法[3, 16].

对于MOKP问题,决策变量(自变量)数目 $n = 500$ ,可行解比例为 $\phi = 0.5$ ${{{p}}_{i,j}}$ ${{{w}}_{i,j}}(j = 1, \cdots ,m)$ 在区间[10, 100]内随机产生. 为了产生后代,本实验使用均匀杂交方式(uniform crossover),杂交率为1.0,使用布尔翻转变异(bit-flipping mutation),变异概率为 $1/n$ . 对于DTLZ系列,决策变量数用 $n = m + k - 1$ 给出,其中DTLZ1的 $k$ 设置为5,DTLZ 2-5设置为10. 使用SBX产生后代,杂交概率 ${p_c} = 1.0$ ${\eta _c} = 20$ ,使用多项式变异(polynomial mutation),变异概率 ${p_m} = 1/n$ ${\eta _m} = 20$ .

表 1 种群规模设置 Table 1 The setting of population size
表 2 不同算法在求解DTLZ系列上的平均HV测量值及性能比较 Table 2 The average HV measurement and performance comparison among the different algorithms in DTLZs

为了估计搜索性能,本实验使用超体积度量(HV)作为求解的评价标准[17]. 令 $A$ $m$ 维目标空间上一算法最后求出来的非支配点集合, ${{r}} = ({r_1},{r_2}, \cdots ,{r_m})$ 为目标空间上的一参考点,且 ${{r}}$ 被集合 $A$ 的任意一点支配. 于是超体积度量值(Hypervolume Indicator)等于以点 ${{r}}$ 为计算边界,集合 $A$ 的支配区域大小,用公式描述如下:

${\rm{HV}}(A,{{r}}) = {\rm{volume}}(\bigcup\limits_{f \in A} {[{f_1},{r_1}] \times \cdots \times [{f_m},{r_m}]} ).$ (10)

式(10)使用QHV算法[18]计算,HV度量值同时刻画了一个解集合的散布性和收敛性,是目前多目标优化算法评价标准用得最多的指标之一,HV测量值大意味着该解集合有更好的效果. 在实验中本实验使用 ${{r}} = \left\{ {1.1,1.1, \cdots ,1.1} \right\}$ 作为计算参考点.

3.2 实验结果

本文对上述的5个算法进行了性能比较,其中HYB方法本文令参数设置为最优参数 $({\theta ^*},{\alpha ^*})\! =\! \left\{ {3.5,0.06} \right\}$ . 而PBI和逆PBI的参数 $\theta $ 分别设置为5和0.5,这是根据Sato[13]和Zhang[7]的提议而设置的. 首先讨论算法在离散优化问题上的表现性能,图3为MOKPs问题的运行结果,数据为标准化后数据,标准化方法是个体的各目标函数值除以各维度的最大值后加上0.1.

图 3 当目标数(维度)变化时,各算法求解MOKPs问题的HV测量值比较 Figure 3 The HV measurement comparison of each algorithm in MOKPs when objectives (dimensions) change

图3(a)为MOKPs问题迭代 ${10^4}$ 代后各算法的HV测量值比较,从图中可以看出,HYB方法在各个维度上性能都与PBI、IPBI方法性能相当,且均比Tchebycheff方法要好,在 $m = \left\{ {5,6,7} \right\}$ 时HYB方法性能最佳,但三者数值上差距都不会超过0.05,这是因为三者的个体等高线是相似的,因此计算结果也会趋于相等,Tchebycheff方法在低维权重和个体有很好的粘合效果,但在高维却没有,因此HV测量值必定没有其他方法好. 在此次比较中NSGA-III表现最差,这是因为NSGA-III对于求解离散优化问题有劣势,非支配排序在淘汰个体的作用上减弱不少.

由于HYB方法加大了个体的被支配区域(图2(b)中曲线的左下方部分变大),因此该方法其中一个优势在于加快了收敛速度,图3(b)展示了当迭代 ${10^3}$ 时各算法的HV测量值比较,证明了HYB方法的收敛速度优势. 当没有达到迭代后期时,HYB方法具有更快的收敛速度,在各维度上均比PBI和IPBI方法要快,在低维上,Tchebycheff方法的收敛速度最快,那是因为该方法在低维上个体与权重有较好的粘合作用,个体延权重方向下降,摇摆不厉害. 而当 $m \geqslant 4$ ,HYB方法则具有更快的收敛速度,1 000代便达到了0.7以上的HV测量值,比其他算都要快.

由于单纯比较HV测量值是片面而不可信的,所以除了比较HV 测量值外,本实验还比较了部分算法的IGD测量值[3, 19],结果如图4所示. 与HV度量相似, IGD度量也是一个综合性的评价指标,同时评价了种群的散布性和收敛性.

下面讨论算法在DTLZ系列的表现性能,与MOKPs问题相反,对于该系列问题NSGA-III算法是占有一定优势的,无论在HV测量上还是IGD测量上,具体的分析可以参考Deb的文章[3],做此实验对比主要是证明HYB方法在不同问题上均有稳定求解效果,且效果不差. 图4展示了NSGA-III、PBI和HYB方法随迭代的代数变化,对应的IGD对比图,这里本文只展示了高维的IGD测量值比较, $m = 8$ . 从图4中可以知道,NSGA-III的IGD测量是最好的,其次HYB方法和PBI方法性能相当,对于DTLZ2问题PBI方法比HYB方法好,DTLZ2问题是主要考察算法散布性好坏的问题,PBI方法只要把 $\theta $ 调得大一些,则该问题便有较好的IGD测量,但HYB方法其弯曲部分会对散布性产生一定影响,尽管这种影响随着维度的增大而变小,但足以使HYB方法处于劣势. DTLZ3问题是属于困难的收敛性问题,在这个问题上HYB方法则比PBI方法要好,由于高维上种群分布变得稀疏,大部分的具有较小目标函数值的个体都是落在远离权重位置,而PBI方法则对靠近权重附近的个体有特殊保护机制,因此往往会淘汰掉这些有较好收敛性的个体,导致算法收敛不足,HYB方法弯曲的部分一定程度上消除了这种保护机制,对算法局部搜索起了一定作用,因而具有更强的局部搜索能力,并在DTLZ3问题上表现出更好的度量评价.

图 4 各算法求解DTLZ问题的IGD测量值变化,m=8 Figure 4 The IGD measurement change of each algorithm in DTLZ when m=8

DTLZ系列的HV测量值在表2中展示,其中加粗字体的数值表示一行中获得最好表现性能的测量数值. NSGA-III依然占有一定优势,而HYB、PBI和IPBI同样的性能相当,与IGD有相似的结论,在DTLZ2问题上PBI和IPBI方法比HYB方法要好上一些. DTLZ1和DTLZ3问题则相反,HYB方法要比两者效果好,原因同上. 尽管这一系列的实验表现总体上没有NSGA-III好,但HYB方法也具有不错的求解效果,效果比PBI方法要好.

综上所述,在面对不同的MOPs或MaOPs问题上,HYB方法都是具有稳定且不错的求解效果,尽管一些问题上没有达到最佳求解结果,但差别不会很大. HYB方法在求解过程中更强调的是收敛性,尤其局部搜索,HYB 方法的一个优势是该方法具有比其他方法更快的收敛速度. 但同样的,在散布性方面HYB方法要较PBI和IPBI方法差一些,因为受其函数曲线弯曲部分的影响.

4 结论

本文提出了一种新的聚合函数,该聚合函数是对目前存在的聚合函数的一种泛化及光滑化操作,其个体函数值的等高线是一条二次曲线,并给出了该函数的一种推导过程,从等高线出发,推导出其函数表达式. 该聚合函数有两个参数,本文给出了参数适当的范围及建议的参数值,同时通过实验比较了它与其他算法的性能,使用该聚合函数稳定有效,且种群在收敛速度上有一定提高. 在接下来的工作,会对聚合函数进行更苛刻严谨的测试,并分析其劣势,从理论上证明该聚合函数比目前存在的其他聚合函数具有更优的等高线形状. 另外,将会深入研究自适应参数与方案,做出不依赖于参数的聚合函数方法.

参考文献
[1] SRINIVAS N, DEB K. Multiobjective optimization using nondominated sorting in genetic algorithms[J]. Evolutionary Computation, 1994, 2(3): 221-248. DOI: 10.1162/evco.1994.2.3.221.
[2] ZITZLER E, LAUMANNS M, THIELE L. SPEA2: improving the performance of the strength pareto evolutionary algorithm[J]. Lecture Notes in Computer Science, 2004, 3242(4): 742-751.
[3] DEB K, JAIN H. An evolutionary many-objective optimization algorithm using reference-point-based nondominated sorting approach, part I: solving problems with box constraints[J]. IEEE Transactions on Evolutionary Computation, 2014, 18(4): 577-601. DOI: 10.1109/TEVC.2013.2281535.
[4] ZITZLER E, KÜNZLI S. Indicator-based selection in multiobjective search[J]. Lecture Notes in Computer Science, 2004, 3242: 832-842. DOI: 10.1007/b100601.
[5] BEUME N, NAUJOKS B, EMMERICH M. SMS-EMOA: multiobjective selection based on dominated hypervolume[J]. European Journal of Operational Research, 2007, 181(3): 1653-1669. DOI: 10.1016/j.ejor.2006.08.008.
[6] BADER J, ZITZLER E. HypE: an algorithm for fast hypervolume-based many-objective optimization[J]. Evolutionary Computation, 2011, 19(1): 45. DOI: 10.1162/EVCO_a_00009.
[7] ZHANG Q, LI H. MOEA/D: a multiobjective evolutionary algorithm based on decomposition[J]. IEEE Trans Evol Comput, 2007, 11(6): 712-731. DOI: 10.1109/TEVC.2007.892759.
[8] LI H, ZHANG Q. Multiobjective optimization problems with complicated Pareto sets, MOEA/D and NSGA-II[J]. IEEE Transactions on Evolutionary Computation, 2009, 13(2): 284-302. DOI: 10.1109/TEVC.2008.925798.
[9] CHENG R, JIN Y, OLHOFER M, et al. A reference vector guided evolutionary algorithm for many-objective optimization[J]. IEEE Transactions on Evolutionary Computation, 2016, 20(5): 773-791. DOI: 10.1109/TEVC.2016.2519378.
[10] QI Y, MA X, LIU F, et al. MOEA/D with adaptive weight adjustmen[J]. Evolutionary Computation, 2014, 22(2): 231-264. DOI: 10.1162/EVCO_a_00109.
[11] ZHOU A, ZHANG Q. Are all the subproblems equally important? resource allocation in decomposition-based multiobjective evolutionary algorithms[J]. IEEE Transactions on Evolutionary Computation, 2016, 20(1): 52-64. DOI: 10.1109/TEVC.2015.2424251.
[12] TRIVEDI A, SRINIVASAN D, SANYAL K, et al. A survey of multiobjective evolutionary algorithms based on decomposition[J]. IEEE Transactions on Evolutionary Computation, 2017, 21(3): 440-462.
[13] SATO H. Analysis of inverted PBI and comparison with other scalarizing functions in decomposition based MOEAs[J]. Journal of Heuristics, 2015, 21(6): 819-849. DOI: 10.1007/s10732-015-9301-6.
[14] ISHIBUCHI H, AKEDO N, NOJIMA Y. A study on the specification of a scalarizing function in MOEA/D for many-objective knapsack problems[J]. Proc of Learning and Intelligent Optimization 7 (LION 7), 2013, 7997: 231-246. DOI: 10.1007/978-3-642-44973-4.
[15] DEB K, THIELE L, LAUMANNS M.Scalable test problems for evolutionary multiobjective optimization[C]// Evolutionary Multiobjective Optimization. London: Springer London Ltd, 2005:105-145.
[16] LI K, DEB K, ZHANG Q, et al. An evolutionary many-objective optimization algorithm based on dominance and decomposition[J]. IEEE Transactions on Evolutionary Computation, 2015, 19(5): 694-716. DOI: 10.1109/TEVC.2014.2373386.
[17] ZITZLER E, THIELE L. Multiobjective evolutionary algorithms: a comparative case study and the strength Pareto approach[J]. IEEE Transactions on Evolutionary Computation, 1999, 3(4): 257-271. DOI: 10.1109/4235.797969.
[18] RUSSO L M S, FRANCISCO A P. Quick hypervolume[J]. IEEE Transactions on Evolutionary Computation, 2012, 18(4): 481-502.
[19] ZITZLER E, THIELE L, LAUMANNS M, et al. Performance assessment of multiobjective optimizers: an analysis and review[J]. IEEE Transactions on Evolutionary Computation, 2003, 7(2): 117-132. DOI: 10.1109/TEVC.2003.810758.