对于两分类问题,如果其中一类的样本数量远多于另一类,则这个问题就称为不平衡数据分类问题,其中,数量多的一类为多类,数量少的为少类。近年来,不平衡数据分类问题成为了机器学习的热点问题之一,在邮件过滤[1]、软件缺陷预测[2]、医疗诊断[3]、DNA数据分析[4]等领域得到了广泛的研究。在水声目标识别中,各种船舶、航行器、生物等目标种类繁多,不同种类之间的数量也相差较大,这也就形成了不平衡数据分类问题,但它在水声领域的研究较少。
集成学习及其改进算法[5-8]常用来解决不平衡数据分类问题,选择性集成学习是一种新兴的集成学习算法,它是在一定策略下从全部基分类器中挑选一部分来组成最终集成分类器,文献[9]通过理论分析,提出了“many could be better than all”理论:对于有监督学习,给定一组基分类器,选择其中一部分进行集成或许比选择全部要好。
选择性集成的核心是差异性,研究者从软件工程[10]、信息论[11]、统计学[12]等领域提出了有关差异性的度量方法,并在此基础上提出了许多选择性集成算法[13-14]。直观上看,基分类器之间的差异性越大,那么它们就可以“取长补短”,使得最终的集成分类器有较好的泛化性。选择性集成学习算法在不平衡数据分类问题上得到了一定的应用,文献[15]将几种选择性集成方法进行改造,提出了RE-GM、MDM-Imb、BB-Imb等算法,试验结果表明改进算法在不平衡数据集上性能有所提高,文献[16]采用重采样、集成算法与差异性提高方法相结合来处理不平衡问题。
本文从差异性和不平衡性2方面出发,首先通过间隔理论揭示了单纯增加差异性无法提高泛化性的原因,然后通过将间隔的概念在分类器空间扩展,定义了间隔度量,通过间隔度量刻画了不同基分类器对样本不平衡性的影响,从而选择出有利于少类目标分类正确率提高的基分类器,结合差异性和不平衡性2方面因素,通过差异性度量增加差异性并通过间隔度量倾向于少类目标,从而构建了间隔和差异性融合的选择性度量,根据选择性度量对基分类器进行筛选,形成间隔和差异性融合的选择性集成算法(margin and diversity fusion selective ensemble algorithm,MDSE),提高集成算法对少类目标的分类能力。
1 间隔理论AdaBoost算法是集成学习中Boosting算法族的核心算法,它本质上是一种元算法,任何有监督基分类算法均可通过AdaBoost算法进行集成,它在统计学、机器学习和数据挖掘等方面得到了广泛的应用。间隔理论[17]是AdaBoost算法的重要理论基础,成功地解释其不易过拟合等性质。本研究用假设C(H)是基分类器空间H的凸包,集成分类器f∈C(H)可以表示为:
$ f = \sum {{\alpha _i}} {h_i}{\kern 1pt} {\kern 1pt} {\kern 1pt} {\rm{with}}{\kern 1pt} {\kern 1pt} {\kern 1pt} \sum {{\alpha _i}} = 1{\kern 1pt} {\kern 1pt} {\kern 1pt} {\rm{and}}{\kern 1pt} {\kern 1pt} {\kern 1pt} {\alpha _i} \ge 0 $ | (1) |
式中hi是权重为αi的基分类器。样本(xi, yi)关于由L个基分类器组成的集成分类器f的间隔定义为:
$ {m_i} = {y_i}f({x_i}) = {y_i}\sum\limits_{t = 1}^L {{\alpha _t}} {h_t}({x_i}) $ | (2) |
间隔的重要作用是它能够刻画分类系统的泛化性,文献[18]推导出集成分类器泛化误差界与其间隔统计特征的关系。
定理 1 从训练样本集上的一个分布Dist中独立随机抽取N(N>5)个训练样本组成集合Dtr,对任意的θ>0,每一个集成分类器f∈C(H)在Dtr上至少以1-δ的概率满足泛化误差界:
$ \begin{array}{*{20}{l}} {\mathop {\Pr }\limits_{{\rm{Dist }}} [yf(x) < 0] \le \frac{1}{{{N^{50}}}} + \mathop {\inf }\limits_{\theta \in (0,1]} \left\{ {\mathop {\Pr }\limits_{{D_{tr}}} [yf(x) < \theta ] + } \right.}\\ {\qquad \begin{array}{*{20}{l}} {N{\exp}\left( { - 2/\left( {1 - {\rm{E}}_{{{\rm{D}}_{{\rm{tr}}}}}^2[yf(x)] + \theta /9} \right)} \right) + }\\ {\left. {\frac{{3\sqrt \mu }}{{{N^{3/2}}}} + \frac{{7\mu }}{{3N}} + \sqrt {\frac{{3\mu }}{N}\hat \varGamma (\theta )} } \right\}} \end{array}} \end{array} $ | (3) |
式中:
$ \left\{ {\begin{array}{*{20}{l}} {\mu = 144\ln m\ln (2|H|)/{\theta ^2} + \ln (2|H|/\delta )}\\ {\hat \varGamma (\theta ) = \mathop {\Pr }\limits_{{D_{tr}}} [yf(x) < \theta ]\mathop {\Pr }\limits_{{D_{tr}}} [yf(x) \ge 2\theta /3]} \end{array}} \right. $ | (4) |
式中:E[yf(x)]是间隔均值;
对于一个分类系统,其泛化误差直接决定了分类性能的好坏。在选择性集成学习中,虽然差异性是关键因素,但很多试验表明,并不是差异性越大,泛化性就越好。这就使得研究者需要从理论角度解释这个问题,文献[19]通过对多种常用差异性度量的总结,引入最小化间隔,给出了最大化差异性和间隔最大化的一致条件。但其试验发现差异性与最小间隔又不是完全正比关系。从定理1可以看出,决定系统泛化性的是间隔的统计特征而不是最小化间隔,因此,本文从理论上推导出差异性度量与间隔统计特征的关系式,从而给出单纯增加差异性并不一定能改善泛化性的原因。
根据间隔的定义,得到训练样本集全部间隔的均值为:
$ \begin{array}{*{20}{l}} {{m_g} = \frac{1}{N}\sum\limits_{i = 1}^N {{m_i}} = \frac{1}{N}\sum\limits_{i = 1}^N {{y_i}} \sum\limits_{j = 1}^L {{\alpha _j}} {h_j}({x_i}) = }\\ {{\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} \frac{1}{N}\sum\limits_{i = 1}^N {\sum\limits_{j = 1}^L {{\alpha _j}} } {O_{ij}}} \end{array} $ | (5) |
式中:Oij是基分类器hj对样本xi的输出,
由于:
$ {\sum\limits_{{O_{ij}} = 1} {{O_{ij}}} + \sum\limits_{{O_{ij}} = - 1} {{O_{ij}}} = \sum\limits_{{O_{ij}} = 1}^N {{O_{ij}}} } $ | (6) |
$ {\sum\limits_{{O_{ij}} = 1} {{O_{ij}}} - \sum\limits_{{O_{ij}} = - 1} {{O_{ij}}} = N} $ | (7) |
两式相加得:
$ \sum\limits_{{O_{ij}} = 1} {{O_{ij}}} = \frac{1}{2}(\sum\limits_{{O_{ij}} = 1}^N {{O_{ij}}} + N) $ | (8) |
因此,基分类器的识别正确率为:
$ {p_j} = \frac{{\sum\limits_{{O_{ij}} = 1} {{O_{ij}}} }}{N} = \frac{1}{2} + \frac{1}{{2N}}\sum\limits_{i = 1}^N {{O_{ij}}} $ | (9) |
对于平均识别正确率:
$ \begin{array}{l} P = \sum\limits_{j = 1}^L {{\alpha _j}} {p_j} = \sum\limits_{j = 1}^L {{\alpha _j}} (\frac{1}{2} + \frac{1}{{2N}}\sum\limits_{i = 1}^N {{O_{ij}}} ) = \\ {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} \frac{1}{2}\sum\limits_{j = 1}^L {{\alpha _j}} + \frac{1}{{2N}}\sum\limits_{j = 1}^L {\sum\limits_{i = 1}^N {{O_{ij}}} } {\alpha _j} = \frac{1}{2} + \frac{1}{2}{m_g} \end{array} $ | (10) |
文献[20]总结了6种差异性度量,根据上文符号将它们统一归纳为:
$ {\rm{div}} = a - \left( {bP + \frac{c}{N}\sum\limits_{i = 1}^N {l_i^2} } \right) $ | (11) |
式中:div是基分类器的差异性度量;a、b、c为常数;li是对样本识别错误的基分类器的权重之和与L的乘积。
由于:
$ {{l_i} = L\sum\limits_{{o_{ij}} = - 1} {{\alpha _j}} } $ | (12) |
$ {{m_i} = {y_i}\sum\limits_{j = 1}^L {{\alpha _j}} {h_j}({x_i}) = \sum\limits_{{O_{ij}} = 1} {{\alpha _j}} + \sum\limits_{{o_{ij}} = - 1} {{\alpha _j}} } $ | (13) |
因此:
$ {l_i} = L\sum\limits_{{O_{ij}} = - 1} {{\alpha _i}} = L({m_i} - \sum\limits_{{O_{ij}} = 1} {{\alpha _i}} ) = L({m_i} - e) $ | (14) |
式中:令
$ \begin{array}{l} {\mathop{\rm div}\nolimits} = a - \left( {bP + \frac{c}{N}\sum\limits_{i = 1}^N {l_i^2} } \right) = \\ {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} a - \left[ {bP + \frac{{c{L^2}}}{N}\sum\limits_{i = 1}^N {\left( {{m_i} - e} \right)_i^2} } \right] = \\ {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} a - b\left( {\frac{1}{2} + \frac{1}{2}{m_g}} \right) - \frac{{c{L^2}}}{N}\left( {\sum\limits_{i = 1}^N {m_i^2} - 2e\sum\limits_{i = 1}^N {{m_i}} + N{e^2}} \right) = \\ {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} \left( {a - \frac{b}{2} - c{L^2}{e^2}} \right) + \left( {2ec{L^2} - \frac{b}{2}} \right){m_g} - \frac{{c{L^2}}}{N}\sum\limits_{i = 1}^N {m_i^2} = \\ {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} \left( {a - \frac{b}{2} - c{L^2}{e^2}} \right) + \left( {2ec{L^2} - \frac{b}{2}} \right){m_g} - c{L^2}\left( {V + m_g^2} \right) = \\ {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} - c{L^2}m_g^2 + \left( {2ec{L^2} - \frac{b}{2}} \right){m_g} - c{L^2}V + \left( {a - \frac{b}{2} - c{L^2}{e^2}} \right) \end{array} $ | (15) |
式中V为mi的方差,即间隔方差。定理1提到,间隔均值越大,同时间隔方差越小,则泛化误差越小,在式(15)中,差异性度量与间隔均值和间隔方差成非线性关系,提高差异性度量并不能保证增大间隔均值且减小间隔方差,因此单纯增加差异性并不一定能降低泛化误差,所以传统的差异性度量有一定的局限性。另外,由于差异性度量未考虑样本不平衡性,因此不适合直接处理不平衡数据分类问题,这就需要有新的度量准则。
3 间隔和差异性融合的选择性集成算法 3.1 间隔和差异性融合的选择性度量间隔统计特征作为集成分类器泛化性的良好刻画,可以用来度量差异性,不过从间隔的定义可以看出,间隔是样本的特征量,而差异性度量的是基分类器之间的特性,因此需要把间隔的定义扩展到分类器空间,来刻画基分类器对间隔大小的贡献程度。
定义 1 基分类器hj对样本xi的间隔贡献量:
$ {m_c} = {y_i}{\alpha _j}{h_j}({x_i}) $ | (16) |
定义 2 基分类器hj对少类目标训练样本集Dp的少类间隔均值贡献量:
$ {m_p} = \frac{1}{{{N_1}}}\sum\limits_{i = 1}^{{N_1}} {{m_c}} = \frac{1}{{{N_1}}}\sum\limits_{i = 1}^{{N_1}} {{y_i}} {\alpha _j}{h_j}({x_i}),{x_i} \in {D_p} $ | (17) |
定义 3 基分类器hj对多类目标训练样本集Dn的多类间隔均值贡献量:
$ {m_n} = \frac{1}{{{N_2}}}\sum\limits_{i = 1}^{{N_2}} {{m_c}} = \frac{1}{{{N_2}}}\sum\limits_{i = 1}^{{N_2}} {{y_i}} {\alpha _j}{h_j}({x_i}),{x_i} \in {D_n} $ | (18) |
从定义可以看出,mp的值越大,基分类器对少类间隔均值的贡献就越大,则基分类器对少类目标的分类正确率就越高,因此可以将mp作为分类器选择的一种度量,但只提高少类目标正确率而完全忽视多类目标并不是想要的结果,所以也需要将mn纳入度量中。
定义 4 根据少类和多类间隔均值贡献量,定义间隔度量:
$ {C_m} = \lambda {m_p} + (1 - \lambda ){m_n} $ | (19) |
式中:λ∈[0, 1]为权衡系数;Cm用来度量基分类器对两类样本间隔均值的贡献量,可以在偏向于少类间隔均值的同时也兼顾多类间隔均值。
另一方面,传统的差异性度量一般分为成对型和非成对型,二者均无法与间隔度量直接融合,因此需要做一定的改进,本文采用Q统计量作为差异性度量进行改进。
表 1中,nij表示符合相应条件的个数。Q统计量Qij是在2个基分类器的联合输出上构造的:
![]() |
表 1 2个基分类器的联合输出 Table 1 The joint output of two base classifiers |
$ {Q_{ij}} = \frac{{{n_{11}}{n_{00}} - {n_{01}}{n_{10}}}}{{{n_{11}}{n_{00}} + {n_{01}}{n_{10}}}} $ | (20) |
Qij越大,说明2个分类器之间的差异性越小。
定义 5 根据Q统计量定义差异性贡献量:
$ {C_q} = - \frac{1}{N}\sum\limits_{i = 1}^N {{Q_{ij}}} $ | (21) |
从定义可以看出,Cq是hj与所有基分类器的Q统计量的均值的负数,Cq越大说明该基分类器对整体的差异性贡献越大。
定义 6 融合间隔度量和差异性贡献量,定义选择性度量:
$ {M_s} = \gamma {C_m} + (1 - \gamma ){C_q} $ | (22) |
式中γ∈[0, 1]为权衡系数。
3.2 算法描述选择性度量Ms兼顾了间隔和差异性两方面,既确保了基分类器之间的差异性,又可以筛选出对少类间隔均值贡献大的基分类器,从而提高少类识别正确率,利用Ms构造间隔和差异性融合的选择性集成算法。MDSE算法的输入是已经预训练完成的L个基分类器、训练样本集和最终子分类器集Hs的大小Ls,MDSE算法通过计算每个基分类器的间隔度量和差异性贡献量得到其选择性度量,根据选择性度量大小由高到低排序,选择前Ls个基分类器作为最终子分类器集并形成选择性集成分类器Fs(xi)。MDSE算法为:
1) 对训练样本集进行预训练;
2) For j=1:L
For i=1:N
计算基分类器的间隔贡献量yiαjhj(xi);
计算差异性度量Qij;
End
计算少类间隔均值贡献量mp和多类间隔均值贡献量mn得到间隔度量Cm;
计算差异性贡献量Cq得到选择性度量Ms;
End
3) 对基分类器按Ms大小由高到低排序,选择前Ls个基分类器组成子分类器集Hs;
4) 输出选择性集成分类器Fs(xi)=sign[
试验采用整理得到的实测水声目标数据970条,其中,A类(少类)目标140条,B类(多类)目标830条。利用水声目标识别中常规的特征提取方法对数据集进行特征提取,分别提取其调制谱特征、高阶谱特征、MFCC特征和小波特征,特征维度如表 2所示,将各自特征分别组成单独的特征集,下文的试验将在不同特征集上分别进行处理。
![]() |
表 2 试验数据特征维度 Table 2 Feature dimension of experimental data |
评价准则对于评估分类性能和指导分类器构建有重要作用,传统的分类器一般采用总体分类精度作为评价准则,但是总体分类精度并没有考虑样本的不平衡性,因此不再适合评价不平衡数据分类问题。F-measure准则、G-mean准则和AUC准则是不平衡数据分类问题的3种常用评价准则,其数值越高,说明算法处理不平衡数据分类的性能越好。
4.2 试验参数设置预训练中,基分类器数量取50,基分类器种类选择决策桩。Ls是一个重要的参数,Ls过大则会增加参数数量和时间开销,过小则不能精确地表征数据。基分类器中,选择性度量为正的才对集成分类器有正面作用。通过不同参数下大量试验,对选择性度量中值为正的基分类器个数进行统计,统计结果如图 1所示。可以看出,30作为值为正的基分类器个数的频率最高,因此取Ls=30。
![]() |
Download:
|
图 1 基分类器个数分布 Fig. 1 The number distribution of base classifiers |
权衡系数中,由于首先要考虑的是偏向于少类目标,同时兼顾多类目标和引入差异性,因此取λ=0.6, γ=0.6。不平衡率是衡量数据不平衡性的一个重要指标,不平衡率IR定义为多类样本数量与少类样本数量的比值。一般认为,当不平衡率大于或等于2时,数据集为不平衡数据集。
试验中训练样本集和测试样本集中的少类数量相同且均为70,训练样本集和测试样本集中的多类数量相同,分别取140、210、280、350,对应的不平衡率分别是2、3、4、5。所有样本均随机地从样本集中抽取,训练样本集与测试样本集互斥,每个试验独立重复50次并取平均值。
4.3 试验结果与分析为了验证MDSE算法的性能,将AdaBoost算法和基于Q统计量的选择性集成算法进行对比。利用F-measure准则、G-mean准则和AUC准则对测试结果进行评价,如图 2~4所示。
![]() |
Download:
|
图 2 F-measure准则结果 Fig. 2 The results of F-measure |
![]() |
Download:
|
图 3 G-mean准则结果 Fig. 3 The results of G-mean |
![]() |
Download:
|
图 4 AUC准则结果 Fig. 4 The results of AUC |
图中,特征集1~4分别指调制谱特征集、高阶谱特征集、MFCC特征集和小波特征集,每一个特征集中,3个柱状图从左到右依次是AdaBoost算法、选择性集成算法和MDSE算法。从图中看出,在不同特征集、不同不平衡率下,MDSE算法的3种准则结果基本均高于AdaBoost算法和选择性集成算法。对每种特征集上不同不平衡率结果求均值,得到3种准则的平均结果如表 3所示。平均来看,相对于AdaBoost算法和选择性集成算法,MDSE算法在F-measure准则下分别从0.26和0.32提升到0.38,在G-mean准则下分别从0.39和0.43提升到0.48,在AUC准则下分别从0.37和0.47提升到0.49,结果显著提高,说明在处理不平衡水声目标数据分类问题上,MDSE算法性能相对于AdaBoost算法和选择性集成算法有明显改善。
![]() |
表 3 不同特征集准则均值结果 Table 3 The criterion mean results of different feature set |
1) 试验结果显示,相对于AdaBoost算法和选择性集成算法,MDSE算法在不平衡数据集上性能更优,说明差异性和不平衡性均对算法本身有影响。
2) 对于差异性,本文证明了单纯增加差异性无法改善泛化性;对于不平衡性,以间隔理论为基础,提出了间隔度量来定量刻画不平衡性。理论分析对算法提供了有力支撑,而试验结果则印证了算法的有效性。
本文提供了一种解决不平衡数据分类问题的新思路,即兼顾不平衡性和差异性,有一定工程应用前景。下一步的工作中,可以将两分类问题扩展到多分类问题进行相应的研究。
[1] |
DAI Hongliang. Class imbalance learning via a fuzzy total margin based support vector machine[J]. Applied soft computing, 2015, 31: 172-184. DOI:10.1016/j.asoc.2015.02.025 ( ![]() |
[2] |
WANG Shuo, YAO Xin. Using class imbalance learning for software defect prediction[J]. IEEE transactions on reliability, 2013, 62(2): 434-443. DOI:10.1109/TR.2013.2259203 ( ![]() |
[3] |
OZCIFT A, GULTEN A. Classifier ensemble construction with rotation forest to improve medical diagnosis performance of machine learning algorithms[J]. Computer methods and programs in biomedicine, 2011, 104(3): 443-451. DOI:10.1016/j.cmpb.2011.03.018 ( ![]() |
[4] |
YU Hualong, NI Jun, ZHAO Jing. ACOSampling:an ant colony optimization-based undersampling method for classifying imbalanced DNA microarray data[J]. Neurocomputing, 2013, 101: 309-318. DOI:10.1016/j.neucom.2012.08.018 ( ![]() |
[5] |
SEIFFERT C, KHOSHGOFTAAR T M, VAN HULSE J, et al. RUSBoost:a hybrid approach to alleviating class imbalance[J]. IEEE transactions on systems, man, and cybernetics-part A:systems and humans, 2010, 40(1): 185-197. DOI:10.1109/TSMCA.2009.2029559 ( ![]() |
[6] |
LANDESA-VÁZQUEZ I, ALBA-CASTRO J L. Shedding light on the asymmetric learning capability of AdaBoost[J]. Pattern recognition letters, 2012, 33(3): 247-255. ( ![]() |
[7] |
欧阳震诤, 罗建书, 胡东敏, 等. 一种不平衡数据流集成分类模型[J]. 电子学报, 2010, 38(1): 184-189. OUYANG Zhenzheng, LUO Jianshu, HU Dongmin, et al. An ensemble classifier framework for mining imbalanced data streams[J]. Acta electronica sinica, 2010, 38(1): 184-189. ( ![]() |
[8] |
TING Kaiming. A comparative study of cost-sensitive boosting algorithms[C]//Proceedings of the 17th International Conference on Machine Learning. Stanford, CA, USA, 2000: 983-990.
( ![]() |
[9] |
ZHOU Zhihua, WU Jianxin, TANG Wei. Ensembling neural networks:Many could be better than all[J]. Artificial intelligence, 2002, 137(1/2): 239-263. ( ![]() |
[10] |
PARTRIDGE D, KRZANOWSKI W. Software diversity:practical statistics for its measurement and exploitation[J]. Information and software technology, 1997, 39(10): 707-717. DOI:10.1016/S0950-5849(97)00023-2 ( ![]() |
[11] |
CUNNINGHAM P, CARNEY J. Diversity versus quality in classification ensembles based on feature selection[C]//Proceedings of the 11th European Conference on Machine Learning Barcelona. Catalonia, Spain, 2000.
( ![]() |
[12] |
DIETTERICH T G. An experimental comparison of three methods for constructing ensembles of decision trees:bagging, boosting, and randomization[J]. Machine learning, 2000, 40(2): 139-157. ( ![]() |
[13] |
EOM H, SON Y, CHOI S. Feature-selective ensemble learning-based long-term regional PV generation forecasting[J]. IEEE access, 2020, 8: 54620-54630. DOI:10.1109/ACCESS.2020.2981819 ( ![]() |
[14] |
NI Danni, FENG Guorui, SHEN Liquan, et al. Selective ensemble classification of image steganalysis via deep Q network[J]. IEEE signal processing letters, 2019, 26(7): 1065-1069. DOI:10.1109/LSP.2019.2913018 ( ![]() |
[15] |
GALAR M, FERNÁNDEZ A, BARRENECHEA E, et al. Ordering-based pruning for improving the performance of ensembles of classifiers in the framework of imbalanced datasets[J]. Information sciences, 2016, 354: 178-196. DOI:10.1016/j.ins.2016.02.056 ( ![]() |
[16] |
DÍEZ-PASTOR J F, RODRÍGUEZ J J, GARCÍA-OSORIO C I, et al. Diversity techniques improve the performance of the best imbalance learning ensembles[J]. Information sciences, 2015, 325: 98-117. DOI:10.1016/j.ins.2015.07.025 ( ![]() |
[17] |
SCHAPIRE R E, FREUND Y, BARTLETT P, et al. Boosting the margin:a new explanation for the effectiveness of voting methods[J]. Annals of statistics, 1998, 26(5): 1651-1686. DOI:10.1214/aos/1024691352 ( ![]() |
[18] |
GAO Wei, ZHOU Zhihua. On the doubt about margin explanation of boosting[J]. Artificial intelligence, 2013, 203: 1-18. DOI:10.1016/j.artint.2013.07.002 ( ![]() |
[19] |
TANG E K, SUGANTHAN P N, YAO X. An analysis of diversity measures[J]. Machine learning, 2006, 65(1): 247-271. ( ![]() |