«上一篇
文章快速检索     高级检索
下一篇»
  智能系统学报  2019, Vol. 14 Issue (6): 1255-1261  DOI: 10.11992/tis.201905049
0

引用本文  

刘牧雷, 徐菲菲. 基于三支决策的序列数据代价敏感分类算法[J]. 智能系统学报, 2019, 14(6): 1255-1261. DOI: 10.11992/tis.201905049.
LIU Mulei, XU Feifei. A sequence data, cost-sensitive classification algorithm based on three-way decisions[J]. CAAI Transactions on Intelligent Systems, 2019, 14(6): 1255-1261. DOI: 10.11992/tis.201905049.

通信作者

徐菲菲. E-mail:xufeifei1983@hotmail.com

作者简介

刘牧雷,男,1993年生,硕士研究生,主要研究方向为三支决策、代价敏感分类;
徐菲菲,女,1983年生,副教授,中国计算机学会和中国人工智能学会会员,主要研究方向为粒计算理论、粗糙集理论、数据挖掘、人工智能与机器学习。主持国家自然科学基金项目1项;上海市教育发展基金会和上海市教育委员会“晨光计划”1项、上海市教育委员会科研创新项目1项等

文章历史

收稿日期:2019-05-26
网络出版日期:2019-08-30
基于三支决策的序列数据代价敏感分类算法
刘牧雷 , 徐菲菲     
上海电力学院 计算机科学与技术学院,上海 200090
摘要:代价敏感分类区别于一般分类方法,更关注高代价类别的分类准确性而容忍全局分类的准确性。三支决策作为一种代价敏感分类问题的解决思路,缺乏对序列数据的支持。结合LSTM模型处理序列数据的能力,提出一种使用三支决策(3WD)改进的序列数据分类方法。方法经过LSTM网络对原数据进行粗分类;对分类结果进行整体代价评估;最终,对高风险分类进行延迟或拒绝处理。方法在4个数据集上进行了测试,并进行了2组对比实验。实验结果表明:本文方法在不改变LSTM模型的情况下,对LSTM模型的分类结果进行了代价区分。
关键词代价敏感    三支决策    长短期记忆网络    序列数据分类    分类算法    高代价类别    代价评估    
A sequence data, cost-sensitive classification algorithm based on three-way decisions
LIU Mulei , XU Feifei     
School of Computer Science and Technology, Shanghai University of Electric Power, Shanghai 200090, China
Abstract: Cost-sensitive classification is different from the general classification method, which pays more attention to the classification accuracy of high-cost categories, but tolerates the accuracy of global classification. Three-way decisions are a solution to a cost-sensitive classification problem and lack support for sequence data. Combined with the ability of the LSTM model in sequence data processing, a method for classifying sequence data a using three-way decision method (3WD) is proposed. First, a general classification of the original data was done through the LSTM network; second, an overall cost estimate was performed on the classification result of step one; finally, the high-risk result was delayed or rejected. Methods were tested on four data sets and two sets of comparative experiments were performed. Experimental results showed that the new method distinguished the classification results of the LSTM model without changing the original structure.
Key words: cost-sensitive    three-way decision    LSTM    sequence data classification    classification algorithm    high-cost categorie    cost estimate    

当前,LSTM作为深度学习的一种处理序列数据最为流行的解决方案,拥有着较传统方案更加实用性强且准确率高的特点[1-2]。但是,基于深度学习的代价敏感决策仍未得到主流的研究关注。当前的研究重点多集中于如何更高效的获得精确的整体准确率。在有关于深度学习的代价敏感分类或决策问题上,当前的算法常见解决方案多集中于通过对数据的预处理和运行参数调整的方式来使分类器获得对某一类代价敏感类别更高的关注从而实现减少整体的代价[3]。但是这种方法的缺点如前文所述。为了训练对高代价分类敏感的模型,筛选出的数据集将会面临严重的数据不平衡问题。而无论是填充或者再平衡的方式,都会使原数据集的结构改变[4]。其次,无论是对数据集的预处理还是对运行参数或者模型结构的调整,都与具体问题相关性较大[5-7]。对于不同的具体问题,数据清洗和参数调整或模型调整的优劣与模型设计者的经验与对问题的了解有着较大的关系。并且,对于不同的问题,相同的解决方案并不能保证稳定的表现。在不同的数据集之间,相同的数据清洗和参数调整所带来的模型上的改变影响是不同的。

基于此,本文提出的将三支决策运用于深度学习模型能够一定程度上解决上述问题。1) 三支决策算法的理论基础为粗糙集理论,以分类置信度为基础判断决策或分类代价。从算法逻辑的角度,三支决策算法要求更高的全局分类的准确性而不是对单独高代价类的分类,此特点使得三支决策算法与更高的更广泛的分类算法优点相结合,在前置分类器不用做出改动或者调整的情况下降低决策的风险。2) 三支决策算法倾向于判断单独决策。因此,新改进的算法将避免在正常预处理的前提下,将避免因平衡特殊分类类别而造成的数据重新扩展或裁剪,从而进一步影响数据平衡问题。综上,结合三支决策的LSTM模型可以在原先的深度模型的基础上,进一步增强模型在代价敏感问题上的表现。

1 相关工作 1.1 三支决策

三支决策[8]是Y.Y.Yao由概率粗糙集理论提出的一种新决策思想。相较于传统的“是,否”二支决策而言,三支决策提出了一种不同但是更合理的决策思想,即当对象当前提供的信息不足以支撑决策时,采用延迟决策,等待更多信息来完成最终决策。所以,三支决策可以规避分类信息不足时盲目决策造成的风险。

三支决策在进行分类决策前,需对样本进行域的划分。划分的原理基于粗糙集理论。按照粗糙集的定义,根据元素 $x$ 是否属于概念 $A$ $x$ $A$ 将分为3种关系: $x \in A$ , $x \in \neg A$ , $x \in {\rm BND}\left( A \right)$ 。由此,考虑一般分类问题,将元素 $x$ 是否符合概念 $A$ 作为分类标准,将可能会得到 $x \in {\rm BND}\left( A \right)$ ,即元素 $x$ 属于概念 $A$ 的边界域。由此,可得知决策粗糙集在代价敏感分类问题上的整体思路。

在决策粗糙集公式化描述中, $X$ 是全集 $U$ 的子集,状态集合可以表示为 $\varOmega = \left\{ {X,\neg X} \right\}$ $X$ $\neg X$ 分别表示属于 $X$ 和不属于 $X$ 。为了方便,子集和子集的状态都使用 ${{X}}$ 来表示。状态 ${{X}}$ 对应的动作集合为 $ \wedge = \left\{ {P,B,N} \right\}$ ,其中 $P{\text{、}}B{\text{、}}N$ 分别表示3种判定动作,即 $x \in {\rm POS}\left( X \right)$ $x \in {\rm BND}\left( X \right)$ $x \in {\rm NEG}\left( X \right)$ 。三支决策的损失函数由各个动作带来的损失决定。如表1所示,其中 ${\textit{λ} _{\rm PP}}{\text{、}}{\textit{λ} _{\rm BP}}{\text{、}}{\textit{λ} _{\rm NP}}$ 表示当 $x$ 属于 $X$ 时采取动作 $P{\text{、}}B{\text{、}}N$ 产生的损失, ${\textit{λ} _{\rm PN}}{\text{、}}{\textit{λ} _{\rm BN}}{\text{、}}{\textit{λ} _{\rm NN}}$ 表示当对象属于 $\neg X$ 时采取动作 $P{\text{、}}B{\text{、}}N$ 时产生的损失。

表 1 三支决策的损失函数 Tab.1 Loss function of 3WD

根据最小风险决策规则:

(P)当 ${{{P}}_{{r}}}\left( {{{X|}}\left[ {{x}} \right]} \right) \geqslant \alpha $ 时, $x \in {\rm POS}\left( {\rm{X}} \right);$

(B)当 $\beta < {{{P}}_{{r}}}\left( {{{X|}}\left[ {{x}} \right]} \right) <\alpha $ 时, $x \in{\rm BND}\left( {{X}} \right);$

(N)当 ${{{P}}_{{r}}}\left( {{{X|}}\left[ {{x}} \right]} \right) \leqslant \beta $ 时, $x \in {\rm NEG}\left( {{X}} \right);$

其中

$ {\rm{\alpha }} = \frac{{{{\rm{{\textit{λ}} }}_{{\rm{PN}}}} - {{\rm{{\textit{λ}} }}_{{\rm{BN}}}}}}{{\left( {{{\rm{{\textit{λ}} }}_{{\rm{PN}}}} - {{\rm{{\textit{λ}} }}_{{\rm{BN}}}}} \right) + \left( {{{\rm{{\textit{λ}} }}_{{\rm{BP}}}} - {{\rm{{\textit{λ}} }}_{{\rm{PP}}}}} \right)}} $ (1)
$ {\rm{\beta }} = \frac{{{{\rm{\textit{λ} }}_{{\rm{BN}}}} - {{\rm{\textit{λ} }}_{{\rm{NN}}}}}}{{\left( {{{\rm{\textit{λ} }}_{{\rm{BN}}}} - {{\rm{\textit{λ} }}_{{\rm{NN}}}}} \right) + \left( {{{\rm{\textit{λ} }}_{{\rm{NP}}}} - {{\rm{\textit{λ} }}_{{\rm{NP}}}}} \right)}} $ (2)

$ 0 \leqslant {\rm{\beta }} < \alpha \leqslant 1 $ (3)
1.2 长短时记忆网络

LSTM是由Hoehreiterhe与Schmiduhber于1997年提出后经过大量的改进,目前被广泛应用[9],成为目前处理序列与时序问题上的热门方案。LSTM是由一般的RNN改进而来。LSTM与一般的RNN的主要区别是在LSTM中的神经元不再是由单纯的神经元组成而是由4个功能不同的门来共同作用。其中包括了输入门、输出门、状态门,以及遗忘门。具体的结构如图1所示。

Download:
图 1 LSTM网络结构 Fig. 1 LSTM network structure

LSTM的独特结构是为了使其能够解决长期依赖问题而专门设计的。不同于RNN网络,LSTM的重复结构是由更加复杂的3个门相互连接而成。包括遗忘门、输入门与输出门。

式(4)~(9)描述了细胞内各个门的处理流程。

$ {f_t} = \sigma \left( {{W_f} \cdot \left[ {{h_{t - 1}},{x_t}} \right] + {b_f}} \right) $ (4)
$ {i_t} = {\rm{\sigma }}\left( {{W_i} \cdot \left[ {{h_{t - 1}},{x_t}} \right] + {b_i}} \right) $ (5)
$ \widetilde {{C_t}} = {\rm tanh}\left( {{W_C} \cdot \left[ {{h_{t - 1}},{x_t}} \right] + {b_C}} \right) $ (6)
$ {C_t} = {f_t}{\cdot }{C_{t - 1}} + {i_t}{\cdot}\widetilde {{C_t}} $ (7)
$ {o_t} = {\rm{\sigma }}\left( {{W_o} \cdot \left[ {{h_{t - 1}},{x_t}} \right] + {b_o}} \right) $ (8)
$ {h_t} = {o_t}{\cdot}{\rm tanh}\left( {{C_t}} \right) $ (9)

式(4)描述了遗忘门决定了当细胞更新时细胞状态会丢弃什么信息。该门会读取 ${h_{t - 1}}$ ${{{x}}_{{t}}}$ ,输出在 $\left[ {0,1} \right]$ 之间的数值与原先细胞状态 ${C_{t - 1}}$ 相结合。其中,1表示完全保留,0表示完全遗忘。其中, ${{{h}}_{{{t}} - 1}}$ 表示上一个细胞的输出, ${x_t}$ 表示当前细胞的输入, ${\rm{\sigma }}$ 表示sigmod函数。

式(5)描述输入门决定了让多少新的信息加入到细胞状态中。第一步,细胞输入 ${{{x}}_{{t}}}$ 与细胞的上个输出 ${{{h}}_{{{t}} - 1}}$ 会通过sigmod元来决定更新的内容。

式(6)描述了更新内容 $\widetilde {{{{C}}_{{t}}}}$ 。与式(5)同时,同样的输入会通过一个tanh元,生成备用的更新内容 $\widetilde {{{{C}}_{{t}}}}$

式(7)描述了更新内容 ${{{C}}_{{t}}}$ 。将式(5)与式(6)两部分结果相乘,将细胞状态由 ${C_{{{t}} - 1}}$ 更新至 ${{{C}}_{{t}}}$

最终输出数据由式(8)的输出与当前细胞状态的一部分共同决定输出的最终值,如式(9)描述。

以上为LSTM模型的基本工作流。

1.3 代价敏感分类

一般的,对于分类算法的研究的核心与重点为如何取得更高的分类准确率,但事实上,只要有误差存在,分类过程总会产生代价。而代价敏感分类就是关注如何使分类过程中产生的代价最小。根据问题的难易程度,代价敏感问题常被分为二分类与多分类问题。对于二分类问题,目前大部分的代价敏感分类多是从非代价敏感分类算法加以转化得到的。

结合上述,可将代价敏感分类等价于一个优化问题: 将实例使用分类算法 $A$ 划分至类别 $I$ 时,使损失函数 $L\left( {x,i} \right)$ 达到最小[10]

$L\left( {x,i} \right) = \mathop \sum \limits_j P\left( {j{\rm{|}}x} \right)c\left( {i,j} \right) $ (10)

式中: $x$ 表示一个实例; $L\left( {x,i} \right)$ 表示 $x$ 的类别为 $i$ 时错误分类的代价; $P\left( {j{\rm{|}}x} \right)$ 表示算法将 $x$ 划分至类别 $j$ 的概率; $c\left( {i,j} \right)$ 表示将 $i$ 分类划分至 $j$ 所产生的代价。

对于每个类别 $i$ $L\left( {x,i} \right)$ 表示 $x$ 所有可能的划分结果的代价的概率和。故由式(10)知,当分类代价最小时,其分类结果 $P\left( {j{\rm{|}}x} \right)$ 不一定取到最大值。即为了得到更小的分类代价,可能会放弃最大的分类结果。

在如何使算法获得倾向性的问题上,有两种经典算法:1)通过预处理,使算法对某些结果具有敏感性,此方法称为rescaling[11];2)希望通过以代价为基准修改不同分类在算法中的成员可能性,从而产生不同的倾向性。此方法称为reweighted[12]

2 基于LSTM的三支决策分类算法

基于三支决策的LSTM算法在原有的LSTM基础上,增加了三支决策步骤,对前端分类器给出的预测结果做出接受、拒绝、延迟3种不同的方案,算法流程如图2所示。

Download:
图 2 基于LSTM的三支决策算法流程 Fig. 2 Flow of 3WD based on LSTM

算法包括两部分:1) 前置分类器,用于初步分类;2) 三支决策,考虑决策风险,通过算法的判断降低决策风险。

2.1 前置分类器

前置分类器的作用主要体现在前置分类器的分类精度最终决定了整体上的分类效果。此后的三支决策对前置分类器的分类结果做出评判,决定接受、拒绝、或者延迟推断。对于LSTM分类器,主要用来解决分类和时序问题预测。输出包括预测结果 $C$ 和预测的分类概率 $p$ 。分类概率 $p$ 用于下一步中三支决策算法来判断是否采纳分类结果。

2.2 三支决策

三支决策对前置分类器给出的结果进行分析。根据式(1)~(3),可以得出相应的判断代价 $\text{Ø} $

将根据前置分类器的分类结果 ${{X}}$ ,与由对应的损失函数 ${\rm{\lambda }}$ 计算出的代价,由判断规则(Pli)、(Bli)、(Nli)判断,给出相应的决策建议。

$ \begin{array}{l} \left( {\rm Pli} \right){\rm IF}\;\;{\rm Pr}\left( {X{\rm{|}}{u_i}} \right) \geqslant {\alpha _i},\;\;{\rm THEN}\;\;{u_i} \in {\rm POS}\left( X \right)\\ \left( {\rm Bli} \right)\;{\rm IF}\;{\beta _i} < Pr\left( {X{\rm{|}}{u_i}} \right) < {\alpha _i},\;{\rm THEN}\;{u_i} \in {\rm BND}\left( X \right)\\ \left( {\rm Nli} \right)\;{\rm IF}\;{\rm Pr}\left( {X{\rm{|}}{u_i}} \right) \leqslant {\beta _i},\;{\rm THEN}\;{u_i} \in {\rm NEG}\left( X \right) \end{array} $
2.3 算法概述

结合上述分析,本文提出基于LSTM与三支决策的代价敏感分类算法,算法描述如下:

BEGIN:

1)  输入 $f$ $t:$ 分类特征,分类表

2)   $t' = $ 由LSTM模型预测或分类数据 $t$

3)  输入 $v:$ 代价函数表

4)  计算边界 $\alpha $ $\beta $

5)  FOR 样本 $i$ IN $t'$ :

    计算分类概率 ${p_i}$

    IF ${p_i} \geqslant \alpha $ :

        $i \in {\rm pos}$

    ELSE IF $\alpha > {\rm pi} \geqslant \beta $ :

        $i \in {\rm bnd}$

    ELSE:

        $ i \in {\rm neg}$

6)   $d=$ 计算整体代价

7)  IF $d >$ 目标值 $d'$ :

   GOTO 2

END

3 实验与结果

实验在自建实验平台中运行。实验平台包括4台服务器,每台服务器均使用相同的配置。每台服务器有6个CPU,主频2.5 GHz,运行内存16 GB。

测试数据集来自UCI开放数据集中的Beijing PM2.5 Data Set与International airline passengers。数据集均为分类任务。

PM2.5数据集来自于UCI数据库,该数据集记录了从2010年1月1日至2014年12月31日北京市的空气质量指数和气象数据。数据集为时间序列数据,特征为连续特征,任务可作为分类或回归任务。数据一共43 824条记录,特征共13个,部分数据缺失。

数据集中包括了时间,当日的温度、湿度、气压、风向、累计风速、累计降雨/降雪量、PM2.5指数共13个数据。其中的PM2.5指数为当日PM2.5值,为连续实数。当预测PM2.5值时,问题为回归问题。若以判断PM2.5区间作为空气质量判断时,问题为分类问题。本例中,将原数据集中的PM2.5均分为4个区间,从小到大分别标记为[优,良,一般,差]4类。根据前 ${t_{n - i}}$ 的气象数据,预测 ${t_n}$ 的空气质量。

图3表示了原数据集中,PM2.5与气象数据的关系。图4表示了两段分类结果的分布信息。

Download:
图 3 原始数据集中的特征分布 Fig. 3 Frequency of features in this dataset
Download:
图 4 原数据集中分类结果与时间的变化关系 Fig. 4 Relations between classify result and time change

图4可以看出,空气质量与时间有明显的关系,并且呈现出一定的周期规律。

国际旅行旅客数据集包括了1949—1960年12年之间每个月的国际航线航班旅客人数。共144个数据,单位为1千人。图5为原数据集中数据的分布。

Download:
图 5 1949—1960年国际航班旅客人数 Fig. 5 Number of international airline traveler between 1949—1960
3.1 PM2.5数据集

根据前述对数据集的分析,将数据通过前置分类器进行回归分析,得到分类结果。此LSTM分类器在数据集上的分类准确率为0.997。由于为多分类问题,参考指标由准确率−召回率改为混淆矩阵。此分类器在测试数据上的结果混淆矩阵见图6图7为分类器训练的最终损失函数。

Download:
图 6 分类结果的混淆矩阵 Fig. 6 Confusion matrix of classification result
Download:
图 7 LSTM训练损失 Fig. 7 Loss of LSTM training

设代价函数为:

$ {\rm{\lambda }} = \mathop \sum \limits_{{i}} {{\rm{\lambda }}_{{{ix}}}}{{{w}}_{{{ix}}}} + {{b}} $ (11)

式中: ${\lambda _{ix}}$ 为判断是否正确; ${w_{ix}}$ 为权重;即判断代价; $b$ 为偏移值。 ${\lambda _{ix}}$ 的计算方式由表1所述代价函数计算可得。

将预测结果代入式(11)后, 得到原分类器的决策代价。

将得到的损失偏差与代入三支决策的决策规则 (Pli、Bli、Nli) 中,对明显偏离预测中心的值进行标记,得到新的分类代价。

表2可知,使用三支决策算法进行判断的分类任务在代价优化上有显著作用。

表 2 使用三支决策的分类代价与未使用三支决策的分类代价对比 Tab.2 Compara of cost of classification between 3WD and non-3WD
3.2 国际旅行旅客人数数据集

根据前述数据集的基本信息,将数据集进行前期分类。图8为LSTM作为前置分类器的预测数据。取预测步长为3,预测网络两层,每层含128个LSTM单元。

Download:
图 8 经过前置分类器的预测数据 Fig. 8 Predict data after preprocessing

显然,随着时间推移,距预测点较远的点预测误差越大。在整个数据集上,前置分类器的测试数据均方误差为28.03。

对于回归问题,由于没有直接的方式判断分类的正误,本文使用均方误差 ${\hat{\rm \theta }}$ 来描述对应的置信度。由此,相应的代价函数可表示为

$\textit{λ} = \mathop \sum \limits_{i \in \left\{ {P,B,N} \right\},j \in \left\{ {X,\neg X} \right\}} {\textit{λ} _{i,j}}{w_{i,j}} + b $ (12)

但是与前述判断规则(Pli、Bli、Nli)不同,此时的分类不再是由有限的状态集合 $\left\{ {X,{\rm{}}\neg X} \right\}$ 描述,而是由偏差 $\left| {E\left( {{\hat{\rm \theta }}} \right) - {\rm{\theta }}} \right|$ 和方差 $D\left( {\hat \theta } \right)$ 组成的连续集合。所以,此时的代价 ${\lambda _{i,j}}$ 不再是确定的函数而是与由均方差 ${\rm MSE}\left( {\hat \theta } \right)$ 描述的模型和距离预测点 $t$ 的两者组成的概率分布。

$ {{\rm{\textit{λ} }}_{{{i}},{{j}}}} \sim {{f}}\left( {{\hat{\rm \theta }},{{{t}}_{{n}}}} \right) $ (13)

式中: $f$ 为训练模型的偏差分布; ${{\hat{\rm \theta }}}$ 为模型的均方差; ${{{t}}_{{n}}}$ 为当前点距预测点的距离。

本例中,为方便计算,假设分布 $f$ 为均匀分布。此时,代价函数简化为只与时间 $t_n$ 相关的函数。由此,代入假设条件,可以得到如图9的代价曲线。

将代入三支决策算法结果如图9。由结果可知,对于问题中给定时刻 $t$ ,在 $t + 12$ 时,代价第一次大于阈值 $\alpha $ ,故在 $\left[ {t,t + 12} \right]$ 时刻的数据是可信的。同理,在 $\left[ {t + 26} \right]$ 时,预测代价第一次大于阈值 $\;\beta $ ,所以从 $t + 26$ 时刻起,预测数据不再可信。图10表示 ${{t}}$ 与代价之间的关系。

Download:
图 9 ${t_n}$ 而代价越来越大的判断曲线 ${\textit{λ} _t}$ Fig. 9 As ${{{t}}_{{n}}}$ increases, the prediction results become more and more inaccurate
Download:
图 10 代价判断决定的三支决策结果 Fig. 10 Discarding costly predictions given by 3WD
4 结束语

本文通过两个实验的验证,提出了基于LSTM的三支决策分类算法。实验1在LSTM分类的基础上,增加三支决策分类后明显地降低了决策风险;实验2在原先分类器中引入三支决策后,也有了代价上的优化。实验表明:1)三支决策的决策准确率受前端分类器准确率的较大影响;2)三支决策算法可以结合深度学习模型解决代价敏感分类问题,而非仅限于非贝叶斯模型的分类器;3)三支决策在解决代价敏感分类问题的同时,可以通过扩展代价定义的方式,为回归模型建立可信度判据。结合三支决策理论,在时间序列分析问题中,三支决策模型可以为预测结果增加可信度的判据,使得预测结果更加具有分析和处理的价值。

但是当前的工作只是初步的验证有关于深度学习与三支决策相结合形成新的代价敏感分类的初步研究。本文的研究尚处于初步的阶段。未来,对于模型的改进仍有许多研究空间。例如,对于三支决策算法,可以结合新的边界理论,形成自动化的边界确定;在整体模型中,可以借助boost或专家分类器等模型,提出更完善的理论;以及结合Alex-net等其他更高效的分类器来进一步提高前置分类器的性能等。这些改进都将能够进一步提高三支决策在在代价敏感分类领域的应用频率。

参考文献
[1] KARIM F, MAJUMDAR S, DARABI H, et al. LSTM fully convolutional networks for time series classification[J]. IEEE access, 2018, 6: 1662-1669. DOI:10.1109/ACCESS.2017.2779939 (0)
[2] KARIM F, MAJUMDAR S, DARABI H, et al. Multivariate LSTM-FCNs for time series classification[J]. Neural networks, 2019, 116: 237-245. DOI:10.1016/j.neunet.2019.04.014 (0)
[3] KHAN S H, HAYAT M, BENNAMOUN M, et al. Cost-sensitive learning of deep feature representations from imbalanced data[J]. IEEE transactions on neural networks and learning systems, 2018, 29(8): 3573-3587. DOI:10.1109/TNNLS.2017.2732482 (0)
[4] FERNÁNDEZ A, GARCÍA S, GALAR M, et al. Cost-sensitive learning[M]//FERNÁNDEZ A, GARCÍA S, GALAR M, et al. Learning from Imbalanced Data Sets. Cham: Springer, 2018: 63-78. (0)
[5] YAN Ke, MA Lulu, DAI Yuting, et al. Cost-sensitive and sequential feature selection for chiller fault detection and diagnosis[J]. International journal of refrigeration, 2018, 86: 401-409. DOI:10.1016/j.ijrefrig.2017.11.003 (0)
[6] JIANG Xinxin, PAN Shirui, LONG Guodong, et al. Cost-sensitive parallel learning framework for insurance intelligence operation[J]. IEEE transactions on industrial electronics, 2019, 66(12): 9713-9723. DOI:10.1109/TIE.2018.2873526 (0)
[7] CHEN Jie, WU Zhongcheng, ZHANG Jun. Driving safety risk prediction using cost-sensitive with Nonnegativity-constrained Autoencoders based on imbalanced naturalistic driving data[J/OL]. IEEE transactions on intelligent transportation systems: (2019-01-17). https://ieeexplore.ieee.org/document/8617709. DOI: 10.1109/TITS.2018.2886280. (0)
[8] YAO Yiyu. Three-way decision: an interpretation of rules in rough set theory[C]//Proceedings of the 4th International Conference on Rough Sets and Knowledge Technology. Gold Coast, Australia, 2009: 642–649. (0)
[9] GERS F A, SCHMIDHUBER J, CUMMINS F. Learning to forget: continual prediction with LSTM[J]. Neural computation, 2000, 12(10): 2451-2471. DOI:10.1162/089976600300015015 (0)
[10] ELKAN C. The foundations of cost-sensitive learning[C]//Proceedings of the 17th International Joint Conference of Artificial Intelligence. Morgan Kaufmann, Seattle, 2001: 973–978. (0)
[11] LIU Xuying, ZHOU Zhihua. The influence of class imbalance on cost-sensitive learning: an empirical study[C]//Proceedings of the 6th International Conference on Data Mining. Hong Kong, China, 2006: 970–974. (0)
[12] ZADROZNY B, LANGFORD J, ABE N. Cost-sensitive learning by cost-proportionate example weighting[C]//Proceedings of the 3rd IEEE International Conference on Data Mining. Melbourne, FL, USA, 2003: 435–442. (0)