西北大学学报自然科学版  2018, Vol. 48 Issue (4): 501-512  DOI: 10.16152/j.cnki.xdxbzr.2018-04-003

三支决策与粒计算

引用本文 

吴伟志. 多粒度粗糙集数据分析研究的回顾与展望[J]. 西北大学学报自然科学版, 2018, 48(4): 501-512. DOI: 10.16152/j.cnki.xdxbzr.2018-04-003.
[复制中文]
WU Weizhi. Reviews and prospects on the study of multi-granularityrough set data analysis[J]. Journal of Northwest University(Natural Science Edition), 2018, 48(4): 501-512. DOI: 10.16152/j.cnki.xdxbzr.2018-04-003.
[复制英文]

基金项目

国家自然科学基金资助项目(61573321,41631179);浙江省自然科学基金资助项目(LY18F030017)

作者简介

吴伟志,男,浙江舟山人,教授, 博士生导师,从事粗糙集、概念格、粒计算、数据挖掘研究。浙江海洋大学二级教授,数理与信息学院院长,浙江省海洋大数据挖掘与应用重点实验室负责人,浙江省一流学科B类(数学)负责人。任中国人工智能学会粒计算与知识发现专业委员会名誉主任委员、中国系统工程学会模糊数学与模糊系统理事会常务理事、中国人工智能学会理事。担任杂志《International Journal of Computer Science and Knowledge Engineering》主编、《International Journal of Machine Learning and Cybernetics》副主编、《Transactions on Rough Sets》等6个国际学术期刊和中文核心期刊《计算机科学》与《模糊系统与数学》的编委。主要从事粗糙集、概念格、随机集、粒计算、数据挖掘等研究,发表论文180余篇,论著被他引9 600多次,SCI他引2 800多次,连续四年(2014—2017)位列由爱思唯尔发布的“中国高被引学者”榜单。获省部级及以上科研成果奖共5项,其中国家科学技术进步奖二等奖1项。

文章历史

收稿日期:2018-03-14
多粒度粗糙集数据分析研究的回顾与展望
吴伟志1,2     
1. 浙江海洋大学 数理与信息学院,浙江 舟山 316022
2. 浙江省海洋大数据挖掘与应用重点实验室,浙江 舟山 316022
摘要:粒计算是知识表示和数据挖掘的一个基本问题。粗糙集理论是知识获取的一个典型粒计算模型。在传统粗糙集数据分析中, 信息系统中每一个对象在每一个属性上只能取唯一的值。在实际生活数据中, 根据不同的粒度或者尺度, 对象在同一属性上可以取不同粒度的值。该文介绍目前流行的三类基于粗糙集的多粒度数据处理模型, 即多粒化粗糙集模型、多粒度邻域粗糙集模型、多尺度信息系统的粗糙集数据分析模型, 回顾这三类多粒度粗糙集数据分析模型的研究进展及主要研究内容, 并提出若干研究问题。
关键词粒计算    信息系统    多粒度    邻域粗糙集    粗糙集    
Reviews and prospects on the study of multi-granularityrough set data analysis
WU Weizhi1,2     
1. School of Mathematics, Physics and Information Science, Zhejiang Ocean University, Zhoushan 316022, China;
2. Key Laboratory of Oceanographic Big Data Mining & Application of Zhejiang Province, Zhoushan 316022, China
Abstract: Granular computing (GrC) is a basic issue in knowledge representation and data mining. Rough set theory is a typical GrC model for knowledge acquisition.In traditional rough set data analysis, each object under each attribute in an information system can only take on one value. However, in many real-life data, objects are usually measured at different scales/granularities under the same attribute.In this paper, three types of multi-granular rough-set-data-analysis models, which are called multi-granulation rough set model, multi-granular neighborhood rough set model, and multi-scale information system based rough set data analysis model, with their research progress are reviewed. And some problems are proposed for further study.
Key words: granular computing    information systems    multi-granularity    neighborhood rough set    rough sets    

从不同的粒度(granularity)上观察、分析与解决同一问题, 是人类智能的特点之一。粒计算(Granular computing, GrC)是Lin在分析Zadeh的信息粒度(information granularity)[1]基础上于1997年首次提出的[2], 它模拟人类思考问题的自然模式, 以粒(granule)为基本计算单位, 以处理大规模复杂数据集和信息等建立有效的计算模型为目标。后来, Lin[3]和Yao[4]分别对粒计算研究的一些基本问题进行了阐述。我国张钹院士和张铃教授提出的商空间理论[5]被公认为粒计算的另一个重要模型, 该理论明确指出“在问题求解研究中, 人类智能的一个公认特点, 就是人们能从极不相同的粒度上观察和分析同一问题。”粒计算主要研究粒的构造、解释、表示、在有不同尺度或粒度空间研究粒计算问题时, 还要考虑最优尺度或粒度的选择, 以及存在于粒之间的粒IF-THEN规则的提取和相关的理论与算法等。目前, 粒计算已成为人工智能领域和大数据处理的重要方法[6-7]

迄今为止, 已经提出了很多涉及具体应用背景的粒计算模型和方法, 而在众多粒计算研究方法中, 粗糙集(rough set)[8]和形式概念分析(Formal concept analysis, FCA)[9]对粒计算研究的推动和发展起着重要的作用并取得了很多重要成果[10-17]

粗糙集数据分析和形式概念分析的数据表示形式是属性-对象值表, 分别称为信息系统和形式背景。传统的粗糙集数据分析和形式概念分析所呈现出的对象-属性值表中大都是取单一属性值的, 即对于系统中的每一个对象和所对应的每一个属性, 只取唯一的一个值, 这样的信息系统或形式背景反映的是固定尺度下的对象信息, 我们称为单尺度信息系统(也称单粒度标记信息系统)和单尺度形式背景。事实上, 单一粒度框架下的知识表示与数据处理方法已远远不能满足实际应用的需求。例如, 在对地理信息系统中的空间遥感数据(数据以某些光谱波段反射的灰度值进行标记)分析中, 对于同一个地表物(观察对象), 随着观测的距离或分辨率不同, 地表物会呈现出具有不同层次物理意义的对象, 如某一地表物根据观测距离或分辨率的不同, 可能分别呈现出陆地、植被、庄稼地、玉米地等。又比如, 对于地图上我国的某一地方, 根据行政区域的不同粒度层次(如村、乡、县、地级市、省自治区等级别), 其所属地分别给予不同的区域标记。总之, 在多粒度标记数据模型下, 同一批数据可以被标记为不同的尺度或粒度层次, 人们可以根据需要在不同的尺度或粒度层面上处理和分析数据。因而“多尺度”或者“多粒度”近几年来成为粒计算研究的重要方向。

在基于粗糙集的多粒度数据表示与分析建模研究中, 我们认为应该从引起多粒度的原因着手。本文主要介绍近几年在粗糙集数据分析中的几种多粒度知识表示和数据处理模型, 并对相关问题的研究进行分析和展望。

1 相关的基础知识

U是非空论域, 对于X$\subseteq $U, XU中的补集记为~X, 即~X={xU|x$ \notin $X}。本节简要介绍后面要用到的一些基本概念与知识。

1.1 信息系统与近似集

定义1[8]  一个信息系统是一个二元组(U, AT), 其中U是一个非空有限对象集, 称为论域; AT是一个非空有限属性集, 对于任意的aAT, 满足a:UVa, 即a(x)∈Va, xU, 其中Va={a(x)|xU}称为a的值域。

对于一个给定的信息系统(U, AT), A$\subseteq $AT, 记:

$ \begin{array}{l} {R_A} = \left\{ {\left( {x,y} \right) \in U \times U\left| {\forall a \in A,a\left( x \right) = } \right.} \right.\\ \left. {a\left( y \right)} \right\} \end{array} $

显然, RA是论域U上的等价关系, 称为不可分辨关系, 它能导出U上的一个划分

$ U/{R_A} = \left\{ {{{\left[ x \right]}_A}\left| {x \in U} \right.} \right\}。$

其中[x]A={yU|(x, y)∈RA}称为对象x关于RA-等价类。

设(U, AT)是一个信息系统, A$\subseteq $AT, X$\subseteq $U, X关于RA的下近似和上近似定义如下:

$ \underline {{R_A}} \left( X \right) = \left\{ {x \in U\left| {{{\left[ x \right]}_A} \subseteq X} \right.} \right\}, $
$ \overline {{R_A}} \left( X \right) = \left\{ {x \in U\left| {{{\left[ x \right]}_A} \cap X \ne \emptyset } \right.} \right\}。$

集合BNRA(X)=$\overline {{R_A}} \left( X \right) - \underline {{R_A}} \left( X \right)$称为XRA边界域。X关于RA的近似精度定义如下:

$ {\alpha _{{R_A}}}\left( X \right) = \frac{{\left| {\underline {{R_A}} \left( X \right)} \right|}}{{\left| {\overline {{R_A}} \left( X \right)} \right|}}, $

其中|X|表示集合X的基数。X关于RA的粗糙度定义如下:

$ {\rho _{{R_A}}}\left( X \right){\rm{ = }}1 - {\alpha _{{R_A}}}\left( X \right)。$

定义2[8]  一个决策表(也称为决策系统)是一个二元组S=(U, C∪{d}), 其中(U, C)是信息系统, C是条件属性集, d$ \notin $C为决策属性, d:UVd, Vd是属性d的值域。定义

$ {R_d} = \left\{ {\left( {x,y} \right) \in U \times U\left| {d\left( x \right) = d\left( y \right)} \right.} \right\} $

U/Rd是由Rd生成的划分, 它将U粒化成决策类。若RC$\subseteq $Rd, 则称决策表(U, C∪{d})是协调的, 否则称它是不协调的。

对于B$\subseteq $C, 记

$ {\partial _B}\left( x \right) = \left\{ {d\left( y \right)\left| {y \in {{\left[ x \right]}_B}} \right.} \right\},x \in U $

B(x)称为x关于B在(U, C∪{d})中的广义决策值, B称为B在(U, C∪{d})中的广义决策函数。显然, (U, C∪{d})是协调的当且仅当对于任意xU有|C(x)|=1。

若信息系统(U, AT)中某些对象在某个属性的值是缺省的(其中的缺省值常用*表示), 则称此信息系统是不完备信息系统, 对于A$\subseteq $AT, 记:

RA={(x, y)∈U×U|∀aA, a(x)=a(y), 或a(x)=*, 或a(y)=*}。

此时, RAU上相似关系, 它能导出U上的一个覆盖U/RA={SA(x)|xU}, 其中

$ {S_A}\left( x \right) = \left\{ {y \in U\left| {\left( {x,y} \right) \in {R_A}} \right.} \right\} $

称为对象x关于RA的相似类。称决策表S=(U, C∪{d})是不完备的, 若(U, C)是不完备信息系统。类似地也可以通过相似关系定义集合的下近似和上近似。

通过粗糙集属性约简方法, 根据决策类关于由条件属性集导出关系的下近似和上近似, 可以分别获得蕴含在决策系统中的确定性决策规则和可能性决策规则[8]

1.2 粒计算中的基本概念和研究内容

尽管目前粒计算研究中没有统一的数学形式化的理论描述, 但是有一些基本概念在粒计算研究领域中已经被普遍接受, 它们是“粒”和“粒化(granulation)”。

定义3  在论域中具有相同或相似性质的对象构成的集合称为一个粒, 粒有时也称为信息粒。

粒是粒计算模型中的最小计算单位。在某些特定的数据分析中, 粒不能再进行分解。但是,这是一个相对的概念, 在一个粒度层面上不能分解, 但在更细或者更小粒度层面上还可以进行再分解。

定义4  构造信息粒的过程称为粒化。

粒是粒计算知识表示和问题求解的基本计算单元, 通过粒化生成由粒组成的对于论域的划分或覆盖。

信息系统中由某个属性子集导出一个对象的等价类或相似类就是粗糙集数据分析中的一个粒, 每一个属性子集将论域粒化成一个划分或覆盖。

2 多粒度粗糙集数据分析模型

要研究多粒度知识表示与知识获取问题, 首先要弄清楚造成多粒度的原因是什么。迄今为止, 文献报道的有3种原因引起多粒度, 相应地有3种粗糙集数据分析模型:

多粒化粗糙集(multi-granulation rough set)模型[18-20]:该模型是由Qian等[18]首先提出的, 主要思想认为多粒度是由属性选择引起的, 该模型根据信息系统中多个属性子集(论域中的多个二元关系或者多个划分或者多个覆盖)构成知识多粒度空间, 由属性的并或交的选择对概念进行近似和对论域进行粒化, 对应地有乐观粗糙集模型和悲观粗糙集模型。

多粒度邻域粗糙集(multi-granularity neighborhood rough set)模型[21-23]:该模型以Hu等[24]提出的邻域粗糙集模型为基础, 该模型认为对象的邻域半径的大小能够引起多粒度, 这个模型主要针对连续属性值的数据或者信息系统, 其主要思想是根据对象邻域半径的大小来对论域进行粒化, 然后选择合适的粒度进行聚类或者分类。

多尺度信息系统的粗糙集数据分析模型[25]:该模型是由Wu和Leung[25]首次提出, 认为对象的属性取值可以引起多粒度, 数据表示形式称为多尺度信息系统(multi-scale information system), 又称为多粒度标记信息系统(multi-granular labeled information system), 并将传统信息系统视作单粒度标记信息系统。其数据处理的主要思想是根据决策目标对每一个属性选择合适的尺度构成一个新的单尺度信息系统, 然后在保持相同目标约束的前提下进行属性约简和决策规则提取。

下面我们分别介绍这几种多粒度粗糙集数据分析模型, 并对它们进行研究展望。

2.1 多粒化粗糙集模型

多粒化粗糙集数据分析主要思想来源于投票决策机制中, 若有m个专家进行投票决策, 乐观的决策是只要其中一个专家表示赞同决策就获得通过, 悲观的决策是只有全部m个专家都表示赞同决策才能获得通过。将这个思想延伸到粗糙集数据分析中分别得到乐观粗糙集和悲观粗糙集模型。

定义5[18-20]  设U是一个非空有限对象集, ${\mathscr R}$={R1, R2, …, Rm}是U上的一簇等价关系, 对于X$\subseteq $U, X关于${\mathscr R}$的乐观多粒度下近似和上近似分别用${\overline {\mathscr R} ^{{\rm{OPT}}}}$(X)和${\underline {\mathscr R} ^{{\rm{OPT}}}}$(X)表示, 定义如下:

$ \begin{array}{l} {\underline {{\mathscr R}} ^{{\rm{OPT}}}}\left( X \right) = \left\{ {x \in U\left| {{{\left[ x \right]}_{{R_1}}} \subseteq X \vee \cdots \vee } \right.} \right.\\ \left. {{{\left[ x \right]}_{{R_m}}} \subseteq X} \right\},{{{\bar{\mathscr R}}}^{{\rm{OPT}}}}\left( X \right) = \sim {\underline {{\mathscr R}} ^{{\rm{OPT}}}}\left( { \sim X} \right)。\end{array} $

其中, [x]Ri(1≤im)是包含xRi等价关系的等价类。(${\underline {\mathscr R} ^{{\rm{OPT}}}}$(X), ${\overline {\mathscr R} ^{{\rm{OPT}}}}$(X))称为X关于${\mathscr R}$的乐观多粒化粗糙集。集合

$ BN_{{\mathscr R}}^{{\rm{OPT}}}\left( X \right) = {{{\bar{\mathscr R}}}^{{\rm{OPT}}}}\left( X \right) - {\underline {{\mathscr R}} ^{{\rm{OPT}}}}\left( X \right) $

称为X关于${\mathscr R}$的乐观多粒化粗糙集的边界。X关于${\mathscr R}$的乐观多粒化粗糙集近似精度定义如下:

$ \alpha _{{\mathscr R}}^{{\rm{OPT}}}\left( X \right) = \frac{{\left| {{{\underline {{\mathscr R}} }^{{\rm{OPT}}}}\left( X \right)} \right|}}{{\left| {{{{\bar{\mathscr R}}}^{{\rm{OPT}}}}\left( X \right)} \right|}}, $

定义X关于${\mathscr R}$的乐观多粒化粗糙集的粗糙度为

$ \rho _{{\mathscr R}}^{{\rm{OPT}}}\left( X \right) = 1 - \alpha _{{\mathscr R}}^{{\rm{OPT}}}\left( X \right)。$

定义6[18]  设U是一个非空有限论域, ${\mathscr R}$={R1, R2, …, Rm}是U上的一簇等价关系, 对于X$\subseteq $U, X关于${\mathscr R}$的悲观化粒度下近似和上近似分别用${\underline {\mathscr R} ^{{\rm{PES}}}}$(X)和${\overline {\mathscr R} ^{{\rm{PES}}}}$(X)表示:

$ \begin{array}{l} {\underline {{\mathscr R}} ^{{\rm{PES}}}}\left( X \right) = \left\{ {x \in U\left| {{{\left[ x \right]}_{{R_1}}} \subseteq X \wedge \cdots \wedge } \right.} \right.\\ \left. {{{\left[ x \right]}_{{R_m}}} \subseteq X} \right\},{{{\bar{\mathscr R}}}^{{\rm{PES}}}}\left( X \right) = \sim {\underline {{\mathscr R}} ^{{\rm{PES}}}}\left( { \sim X} \right)。\end{array} $

(${\underline {\mathscr R} ^{{\rm{PES}}}}$(X), ${\overline {\mathscr R} ^{{\rm{PES}}}}$(X))称为X关于${\mathscr R}$的悲观多粒化粗糙集。集合

$ BN_{{\mathscr R}}^{{\rm{PES}}}\left( X \right) = {{{\bar{\mathscr R}}}^{{\rm{PES}}}}\left( X \right) - {\underline {{\mathscr R}} ^{{\rm{PES}}}}\left( X \right) $

称为X关于${\mathscr R}$的悲观多粒化粗糙集的边界。X关于${\mathscr R}$的悲观多粒化粗糙集近似精度定义如下:

$ \alpha _{{\mathscr R}}^{{\rm{PES}}}\left( X \right) = \frac{{\left| {{{\underline {{\mathscr R}} }^{{\rm{PES}}}}\left( X \right)} \right|}}{{\left| {{{{\bar{\mathscr R}}}^{{\rm{PES}}}}\left( X \right)} \right|}}。$

定义X关于${\mathscr R}$的悲观多粒化粗糙集的粗糙度为

$ \rho _{{\mathscr R}}^{{\rm{PES}}}\left( X \right) = 1 - \alpha _{{\mathscr R}}^{{\rm{PES}}}\left( X \right)。$

注1  由于U上的等价关系与U上的划分是一一对应的, 因此, 定义5和定义6中等价关系簇${\mathscr R}$={R1, R2, …, Rm}可以被U上的m个划分来替代。相应地, xRi等价类[x]Ri要换成第i个划分中包含x的集合(等价类)。在具体应用上, 设(U, AT)是信息系统, P1, P2, …, PmATm个属性子集簇, 对于每一个属性子集可以按照1.1节的方法定义U上的一个等价关系, 因此, 定义5和定义6中等价关系${\mathscr R}$={R1, R2, …, Rm}也可以用属性子集簇{P1, P2, …, Pm}替代, 具体见文献[18-20]。

在理论层面上, 多粒化粗糙集有很多拓展模型, 比如可以将等价关系推广成非等价关系得到双论域多粒化粗糙集模型等[26-28]。将由等价关系所对应的划分拓展成覆盖,则可以得到多粒化覆盖粗糙集模型[29-31]。更一般地, 将经典二元关系拓展到模糊关系,则可以得到多粒化模糊粗糙集模型, 甚至将软集或区间集与多粒化进行组合得到多粒化软粗糙集模型和多粒化区间粗糙集模型等[32-39]。另外, 多粒化粗糙集模型下的多值逻辑方法也取得了重要进展[40]。将多粒化粗糙集和概念认知结合是一个很有意义的工作, 并取得了一些重要进展[41-43]

在具体应用上, 各种信息系统和决策表在多粒化粗糙集模型下的粗糙近似、约简(包括系统约简和局部约简)、规则提取、代价敏感分析方面等取得了一些重要研究成果。将完备信息系统拓展成不完备信息系统、序信息系统、模糊信息系统、区间值信息系统、形式背景等, 用多粒化粗糙集方法研究这些拓展数据表中的信息粒表示、知识约简、规则提取、知识动态更新等仍是值得进一步研究的问题[44-49]

在多粒化粗糙集模型及其应用研究中, 不确定性分析及度量研究是一个重要的问题。这方面的研究主要是针对不同的不确定性问题引入不同的度量或测度, 如概率不确定性、模糊性、信息熵、证据理论中的信任度与似然度, 以及包含度等[50-57]

从本质上说, 这类“多粒度”是通过多个属性选择不同的合成方式而获得的。当然, 也有人认为这种乐观和悲观的定义粗糙近似的方式过于极端,可以采取更加折中的方式定义。

2.2 多粒度邻域粗糙集模型

多粒度邻域粗糙集模型的主要思想将邻域粗糙集中的“邻域”或者“距离”动态地用多个邻域或者多个距离作为“多粒度”对论域进行粒化, 根据决策或者分类任务选择合适的距离进行决策。

定义7[21-24]  设(U, AT)是一个完备信息系统, 对于任意xU和属性子集A$\subseteq $AT, x在属性子集A上邻域δA(x)定义如下:

$ {\delta _A}\left( x \right) = \left\{ {y \in U\left| {{\Delta _A}\left( {x,y} \right) \le \delta } \right.} \right\}。$

其中δ>0, ΔA是论域U上某个满足以下公理的距离函数:∀x, y, zU

1) ΔA(x, y)≥0;

2) ΔA(x, y)=0当且仅当x=y;

3) ΔA(x, y)=ΔA(y, x);

4) ΔA(x, z)≤ΔA(x, y)+ΔA(y, z)。

需要指出的是,这里的ΔA一般是通过对象在属性子集A上取值计算得到的, 比如若A={a1, a2, …, aN}$\subseteq $AT, 则可以定义Minkowsky距离:

$ {\Delta _A}\left( {x,y} \right) = {\left( {\sum\limits_{k = 1}^N {{{\left| {{a_k}\left( x \right) - {a_k}\left( y \right)} \right|}^p}} } \right)^{1/p}}。$

其中p≥1。当然, 不同的属性上也可以选择不同类型的距离函数, 在不同属性上合成U上的距离函数时也可以取加权和等。

定义8[21-22]  设(U, AT)是一个完备信息系统, 对于任意X$\subseteq $U和属性子集A$\subseteq $AT, X关于属性子集A的邻域粗糙下近似和上近似分别用$\underline {{N_A}} $(X)与$\overline {{N_A}} $(X)表示, 定义如下:

$ \underline {{N_A}} \left( X \right) = \left\{ {x \in U\left| {{\delta _A}\left( x \right) \subseteq X} \right.} \right\}, $
$ \overline {{N_A}} \left( X \right) = \left\{ {x \in U\left| {{\delta _A}\left( x \right) \cap X \ne \emptyset } \right.} \right\}。$

BNA(X)=$\overline {{N_A}} $(X)-$\underline {{N_A}} $(X)称为X关于属性子集A的邻域边界。称($\underline {{N_A}} $(X), $\overline {{N_A}} $(X))为X关于属性子集A的邻域粗糙集。

定义9[21-22]  设(U, AT)是一个完备信息系统, Γ={δ1, δ2, …, δt},δk>0, k=1, 2, …, t,记

$ \delta _A^k\left( x \right) = \left\{ {y \in U\left| {{\Delta _A}\left( {x,y} \right) \le {\delta _k}} \right.} \right\}。$

对于任意X$\subseteq $U和属性子集A$\subseteq $AT, X关于属性子集A在第k个距离粒度下的邻域粗糙下近似和邻域粗糙上近似分别用$\underline {N_A^k} $(X)与$\overline {N_A^k} $(X)表示, 定义如下:

$ \underline {N_A^k} \left( X \right) = \left\{ {x \in U\left| {\delta _A^k\left( x \right) \subseteq X} \right.} \right\}, $
$ \overline {N_A^k} \left( X \right) = \left\{ {x \in U\left| {\delta _A^k\left( x \right) \cap X \ne \emptyset } \right.} \right\}。$

BNAk(X)=$\overline {N_A^k} $(X)-$\underline {N_A^k} $(X)称为X关于属性子集A在第k个距离粒度下的邻域边界。称($\underline {N_A^k} $(X), $\overline {N_A^k} $(X))为X关于属性子集A在第k个距离粒度下的邻域粗糙集。

定义9将不同的邻域半径δ1, δ2, …, δt作为“粒度”定义多粒度粗糙近似集。在具体应用中, 若粒度半径δ1, δ2, …, δt是事先确定的, 则在决策表中如何选择合适的粒度对决策或分类的泛化最强是一个值得研究的问题。当然, 若δ1, δ2, …, δt不是事先给定的, 则在数据集中训练泛化能力好的粒度是一个比较重要的问题,比如, 文献[21-22]将不同邻域或距离度量作为多粒度对论域进行粒化, 在泛化性能优化的框架下提出了最大邻域粒间隔的粒度选择和组合方法。

多粒度邻域粗糙集数据分析可以拓展到各种复杂的信息系统与决策表中的特征选择、约简、规则提取, 包括动态数据挖掘等[58-62]。另外, 在不同的属性值域中如何训练或者选择合适的距离函数也是一个值得研究的问题。在多粒度邻域粗糙集模型的应用研究中, 不确定性分析及度量研究也是一个重要的问题[63], 比如针对不同的不确定性问题可以引入不同的度量或测度。

多粒度邻域粗糙集模型应用限制是数据类型必须是实数值的或者可以转化为实数值的属性数据。

2.3 多尺度信息系统的粗糙集数据分析模型

在传统粗糙集数据分析的信息系统(U, AT)中, 每一个对象xi在属性aj上只取一个确定的值, 这是单尺度标记信息系统。若信息系统(U, AT)中每一个对象在同一个属性上根据不同的尺度标记层面可以取不同的值, 则(U, AT)是一个多尺度(标记)信息系统。Wu和Leung在文献[25]中首次提出了多尺度信息系统的概念。

定义10[25]  称(U, AT)是一个多尺度信息系统, 其中U={x1, x2, …, xn}是一个非空有限对象集, 称为论域, AT={a1, a2, …, am}是一个非空有限属性集, 且每一个属性都是多尺度属性。

假设所有的属性都有I个相同的等级粒度, 则一个多尺度信息系统可以表示为

$ \left( {U,\left\{ {a_j^k\left| {k = 1,2, \cdots ,I,j = 1,2, \cdots ,m} \right.} \right\}} \right) $

其中ajk:UVjk, Vjk是属性aj在第k个尺度标记层面下的值域, 并且对于j=1, 2, …, m, 1≤kI-1, 存在一个满射gjk, k+1:VjkVjk+1使得ajk+1=gjk, k+1·ajk, 即

$ a_j^{k + 1}\left( x \right) = g_j^{k,k + 1}\left( {a_j^k\left( x \right)} \right),x \in U, $

gjk, k+1为信息粒度变换。

定义11[25]  称系统S=(U, C∪{d})=(U, {ajk |k=1, 2, …, I, j=1, 2, …, m}∪{d})是一个多尺度决策系统, 其中(U, C)=(U, {ajk |k=1, 2, …, I, j=1, 2, …, m})是一个多尺度信息系统, d$ \notin $C={a1, a2, …, am}是一个单尺度标记决策属性, d:UVd, Vd是决策属性d的值域。

对于k∈{1, 2, …, I}, 记

$ A{T^k} = \left\{ {a_1^k,a_2^k, \cdots ,a_m^k} \right\}, $

则一个多尺度信息系统(U, AT)可以分解为I个信息系统(U, ATk), k=1, 2, …, I。在这种情形下, 多尺度决策系统S=(U, {ajk |k=1, 2, …, I, j=1, 2, …, m}∪{d})可以分解成I个决策系统

$ {S^k} = \left( {U,\left\{ {a_j^kj = 1,2, \cdots ,m} \right\} \cup \left\{ d \right\}} \right), $

其中k=1, 2, …, I

这样的多尺度信息系统和多尺度决策系统的粗糙集数据分析模型称为Wu-Leung模型[64]

例1[25]  表 1给出了一个多尺度决策系统

$ S = \left( {U,\left\{ {a_j^k\left| {k = 1,2,3} \right.,j = 1,2,3,4} \right\} \cup \left\{ d \right\}} \right) $

其中

$ U = \left\{ {{x_1},{x_2}, \cdots ,{x_{12}}} \right\}, $
$ C = \left\{ {{a_1},{a_2},{a_3},{a_4}} \right\}, $

每个属性有3个粒度层面的标记, 其中“E”,“G”,“F”,“B”,“S”,“M”,“L”,“Y”,“N”分别表示“优”、“良”、“中”、“差”、“小”、“中等”、“大”、“是”、“否”。这样的一个系统可以分解成3个决策表, 见表 2~4

表 2 表 1的第一个粒度层面标记下的决策表 Tab. 2 The decision table with the first level of granulation of Table 1

表 3 表 1的第二个粒度层面标记下的决策表 Tab. 3 The decision table with the second level of granulation of Table 1

表 4 表 1的第三个粒度层面标记下的决策表 Tab. 4 The decision table with the third level of granulation of Table 1

在Wu-Leung模型中, 相当于将决策系统的条件部分看成I个尺度, 在保持某种性质(可以是定性的也可以是定量的)一致的意义下选择最粗的尺度标记(也称为最优尺度选择)成为在多尺度决策系统中提取决策规则前的一个关键问题[25, 65-69]。当然, 这样得到的最优尺度我们称为系统的最优尺度(它们对应一个决策表), 但是在实际问题中, 有时为了获得某一个对象所对应的泛化能力强的决策规则时, 则只须计算关于决策在保持某种性质(可以是定性的也可以是定量的)一致意义下的选择最粗尺度标记即可, 此时获得的最优尺度称为该对象的局部最优尺度[70-71]。Wu等人研究了在多粒度标记框架下的其他数据类型的信息粒度表示和最优粒度的选择问题, 包括不完备多尺度信息系统、不完备序信息系统等[72-74]。Gu和Wu[75-77]还给出了协调的和不协调的多尺度标记决策系统中知识获取的算法。

由于以上多粒度标记信息系统都有一个共同的假设, 即系统中所有的属性都具有相同的粒度标记个数, 而实际生活中人们可能面对不同的属性具有不同的粒度标记个数的数据处理问题。针对这种情形, Li和Hu在文献[64]和文献[78]中提出了一种推广的多粒度标记数据分析模型(有时称为广义多尺度信息系统)。

定义12[64]  称(U, AT)是一个广义多尺度信息系统, 其中U={x1, x2, …, xn}是一个非空有限对象集, 称为论域, AT={a1, a2, …, am}是一个非空有限属性集, 且每一个属性都是多尺度属性。假设属性ajIj个等级粒度, 则一个多尺度信息系统可以表示为:

$ \left( {U,\left\{ {a_j^k\left| {k = 1,2, \cdots ,{I_j}} \right.,j = 1,2, \cdots ,m} \right\}} \right), $

其中ajk:UVjk, Vjk是属性aj在第k个尺度标记层面下的值域, 并且对于j=1, 2, …, m, 1≤kIj-1, 存在一个满射gjk, k+1:VjkVjk+1,使得ajk+1=gjk, k+1·ajk, 即

$ a_j^{k + 1}\left( x \right) = g_j^{k,k + 1}\left( {a_j^k\left( x \right)} \right),x \in U, $

gjk, k+1为信息粒度变换。

定义13[64]  称系统S=(U, C∪{d})=(U, {ajk|k=1, 2, …, Ij, j=1, 2, …, m}∪{d})是一个广义多尺度决策系统, 其中(U, C)=(U, {ajk|k=1, 2, …, Ij, j=1, 2, …, m})是一个多尺度信息系统, d$ \notin $C={a1, a2, …, am}是一个单尺度标记决策属性, d:UVd, Vd是决策属性d的值域。

例2  表 5(是表 1将第4列删除得到的)给出了一个多尺度决策系统

$ S = \left( {U,\left\{ {a_j^k\left| {k = 1,2, \cdots ,{I_j}} \right.,j = 1,2,3,4} \right\} \cup \left\{ d \right\}} \right) $
表 5 一个广义多尺度决策系统 Tab. 5 A generalized multi-scale decision system

表 1 一个具有3个粒度层面标记的多尺度决策系统 Tab. 1 A multi-scale decision system with three levels of granulation

其中

$ U = \left\{ {{x_1},{x_2}, \cdots ,{x_{12}}} \right\}, $
$ C = \left\{ {{a_1},{a_2},{a_3},{a_4}} \right\}, $

其中a1有2个粒度层面的标记, 其余属性有3个粒度层面的标记。

对于这样的一个多尺度决策系统, 显然不能用例1的方法简单地将它分解成3个粒度层面的子表(a1只有2个粒度层面的标记), 针对这样的系统, Li和Hu在文献[64]中引入尺度组合的概念用于解决多尺度决策系统的尺度选择问题。

定义14[64]  对于广义多尺度信息系统(U, AT), 若属性ajAT,取第lj个尺度标记(1≤ljIj), j=1, 2, …, m, 并记K=(l1, l2, …, lm), 则称K=(l1, l2, …, lm)为系统S=(U, AT)的一个尺度组合, 记(U, AT)的尺度组合全体为${\mathscr L}$

易见, 系统S=(U, AT)的每一个尺度组合K=(l1, l2, …, lm)∈${\mathscr L}$对应一个完备信息系统SK=(U, ATK), 其中ATK=(a1l1, a2l2, …, amlm)。

对于A$\subseteq $ATK=(l1, l2, …, lm)∈${\mathscr L}$, 记K在属性子集A上的限制为KA, 定义

$ {R_{{A^K}}} = \left\{ {\left( {x,y} \right) \in U \times U\left| {\forall {a^l} \in {A^{{K_A}}},{a^l}\left( x \right) = {a^l}\left( y \right)} \right.} \right\}, $

RAK是多尺度信息系统S在尺度组合K=(l1, l2, …, lm)下由属性集A导出的一个等价关系, 特别地, 对于aAT, 记RaK=R{a}K。记

$ {\left[ x \right]_{{A^K}}} = \left\{ {y \in U\left| {\left( {x,y} \right) \in {R_{{A^K}}}} \right.} \right\},x \in U。$

[x]AK称为对象x关于AK的等价类。记

$ U/{R_{{A^K}}} = \left\{ {{{\left[ x \right]}_{{A^K}}}\left| {x \in U} \right.} \right\}, $

U/RAK={[x]AK|xU}构成了U的一个划分。

对于X$\subseteq $U, K${\mathscr L}$, X关于RAK的下近似$\underline {{R_{{A^K}}}} $(X)和上近似$\overline {{R_{{A^K}}}} $(X)定义如下:

$ \underline {{R_{{A^K}}}} \left( X \right) = \left\{ {x \in U\left| {{{\left[ x \right]}_{{A^K}}} \subseteq X} \right.} \right\}, $
$ \overline {{R_{{A^K}}}} \left( X \right) = \left\{ {x \in U\left| {{{\left[ x \right]}_{{A^K}}} \cap X \ne \emptyset } \right.} \right\}。$

集合BNAK(X)=$\overline {{R_{{A^K}}}} $(X)-$\underline {{R_{{A^K}}}} $(X)称为XRAK边界域。

我们认为, 从广义多尺度决策系统S=(U, {ajk|k=1, 2, …, Ij, j=1, 2, …, m}∪{d})中提取决策规则过程中要解决两个问题, 一是在保持某种性质(可以是定性的也可以是定量的)一致意义下选择合适的条件属性的尺度组合(也称为最优尺度组合选择问题);二是在所选择的最优尺度组合基础上继续进行保持相同性质一致意义下的属性约简、规则提取及不确定分析。因此, 最优尺度组合选择问题仍然是多尺度决策系统中知识表示与知识获取的关键问题[79-81]

类似于单尺度决策系统有各种各样意义下的属性约简问题, 探索多尺度决策系统在不同物理意义下的最优尺度组合选择(包括系统最优尺度组合选择和局部最优尺度组合选择)是多尺度决策系统中知识表示和知识获取的重要问题。当然, 各种复杂数据类型在不同粒度或尺度下的决策规则提取、不确定性分析及其算法等仍是值得进一步研究的问题。

3 结语

粒计算是大数据分析与知识发现的一个重要工具, 近几年来, 多粒度成为粒计算研究的一个重要方向。本文从形成多粒度的原因出发, 对多粒化粗糙集模型、多粒度邻域粗糙集模型、多尺度信息系统的粗糙集数据分析模型等目前相对而言比较流行的3种多粒度粗糙集数据分析模型研究进行了回顾, 并对这些模型进一步进行理论与应用研究作了初步探讨。需要指出的是, 本文只是对一些重要出版机构中的文献进行了有选择地讨论, 未对所提炼的方向与问题展开详细论述, 希望能对相关研究领域给出一些基本轮廓,

当然, 引起多粒度的原因并非只有这3种形式, 比如, 在全国、省自治区、地区(地级市)、县、乡镇等不同级别的道路交通地图中, 从粗粒度到细粒度的道路图变换显示中会有不断地“增加”一些级别比较低的道路, 而从细粒度到粗粒度的道路图变换显示中又会不断地“删除”一些级别比较低的道路。因此, 与“并”和“交”模式不同, “增加”与“删除”是另外一种引起多粒度的原因。针对类似数据形式如何建立多粒度计算模型是值得考虑的问题。

参考文献
[1]
ZADEH L A. Fuzzy sets and information granularity [G]//Advances in Fuzzy Set Theory and Applications. Amsterdam: North-Holland, 1979: 3-18. http://www.researchgate.net/publication/242629344_Fuzzy_set_and_information_granularity
[2]
LIN T Y. Granular computing: From rough sets and neighborhood systems to information granulation and computing in words [C/OL]//Proc of European Congress on Intelligent Techniques and Soft Computing, 1997 [2017-05-12]. http://xanadu.cs.sjsu.edu/~drtylin/publications/paperList/101_34rsnsigcw3.pdf.
[3]
LIN T Y. Granular computing: Structures, representations, and applications [G]//LNAI 2639: Proceedings of the 9th International Conference on Rough Sets, Fuzzy Sets, Data Mining, and Granular Computing. Berlin: Springer, 2003: 16-24. http://dl.acm.org/citation.cfm?id=1783579
[4]
YAO Y Y. Granular computing: Basic issues and possible solutions [C]//Proceeding of the 5th Joint Conference on Computing and Information. Durham: Duke University Press, 2000: 186-189. http://www.researchgate.net/publication/2536893_Granular_Computing_basic_issues_and_possible_solutions
[5]
张铃, 张钹. 基于商空间的问题求解:粒度计算的理论基础[M]. 北京: 清华大学出版社, 2014.
[6]
梁吉业, 钱宇华, 李德玉, 等. 大数据挖掘的粒计算理论与方法[J]. 中国科学(信息科学), 2015, 45(11): 1355-1369.
[7]
CHEN C L P, ZHANG C Y. Data-intensive applications, challenges, techniques and technologies: A survey on Big Data[J]. Information Sciences, 2014, 275: 314-347. DOI:10.1016/j.ins.2014.01.015
[8]
PAWLAK Z. Rough Sets: Theoretical Aspects of Reasoning about Data[M]. Boston: Kluwer Academic Publishers, 1991.
[9]
GANTER B, WILLE R. Formal Concept Analysis: Mathematical Foundations[M]. New York: Springer-Verlag, 1999.
[10]
LIN T Y, YAO Y Y, ZADEH L A. Data Mining, Rough Sets and Granular Computing[M]. New York: Physica-Verlag, 2002.
[11]
PEDRYCZ W, SKOWRON A, KREINOVICH V. Handbook of Granular Computing[M]. New York: Wiley, 2008.
[12]
苗夺谦, 王国胤, 刘清, 等. 粒计算的过去、现在与展望[M]. 北京: 科学出版社, 2007.
[13]
苗夺谦, 李德毅, 姚一豫, 等. 不确定性与粒计算[M]. 北京: 科学出版社, 2011.
[14]
YAO J T, VASILAKOSA V, PEDRYCZ W. Granular computing: Perspectives and challenges[J]. IEEE Transactions on Cybernetics, 2013, 43(6): 1977-1989. DOI:10.1109/TSMCC.2012.2236648
[15]
徐伟华, 米据生, 吴伟志. 基于包含度的粒计算方法与应用[M]. 北京: 科学出版社, 2015.
[16]
李金海, 吴伟志. 形式概念分析的粒计算方法及其研究展望[J]. 山东大学学报(理学版), 2017, 52(7): 1-12.
[17]
WU W Z, LEUNG Y, MI J S. Granular computing and knowledge reduction in formal contexts[J]. IEEE Transactions on Knowledge and Data Engineering, 2009, 21(10): 1461-1474. DOI:10.1109/TKDE.2008.223
[18]
QIAN Y H, LIANG J Y, YAO Y Y, et al. MGRS: A multi-granulation rough set[J]. Information Sciences, 2010, 180(6): 949-970. DOI:10.1016/j.ins.2009.11.023
[19]
QIAN Y H, LIANG J Y, DANG C Y. Incomplete multi-granulation rough set[J]. IEEE Transactions on Systems, Man and Cybernetics, 2010, 40(2): 420-431. DOI:10.1109/TSMCA.2009.2035436
[20]
QIAN Y H, LI S Y, LIANG J Y, et al. Pessimistic rough set based decisions: A multigranulation fusion strategy[J]. Information Sciences, 2014, 264: 196-210. DOI:10.1016/j.ins.2013.12.014
[21]
ZHU P F, HU Q H, ZUO W M, et al. Multi-granularity distance metric learning via neighborhood granule margin maximization[J]. Information Sciences, 2014, 282: 321-331. DOI:10.1016/j.ins.2014.06.017
[22]
ZHU P F, HU Q H. Adaptive neighborhood granularity selection and combination based on margin distribution optimization[J]. Information Sciences, 2013, 249: 1-12. DOI:10.1016/j.ins.2013.06.012
[23]
LIN G P, QIAN Y H, LI J J. NMGRS: Neighborhood-based multigranulation rough sets[J]. International Journal of Approximate Reasoning, 2012, 53(7): 1080-1093. DOI:10.1016/j.ijar.2012.05.004
[24]
HU Q H, YU D R, ME Z. Neighborhood classifiers[J]. Expert Systems with Applications, 2008, 34(2): 866-876. DOI:10.1016/j.eswa.2006.10.043
[25]
WU W Z, LEUNG Y. Theory and applications of granular labeled partitions in multi-scale decision tables[J]. Information Sciences, 2011, 181(18): 3878-3897. DOI:10.1016/j.ins.2011.04.047
[26]
XU W H, WANG Q R, ZHANG X T. Multi-granulation rough sets based on tolerance relations[J]. Soft Computing, 2013, 17(7): 1241-1252. DOI:10.1007/s00500-012-0979-1
[27]
SUN B Z, MA W M. Multigranulation rough set theory over two universes[J]. Journal of Intelligent & Fuzzy Systems, 2015, 28(3): 1251-1269.
[28]
SUN B Z, MA W M, QIAN Y H. Multigranulation fuzzy rough set over two universes and its application to decision making[J]. Knowledge-Based Systems, 2017, 123: 61-74. DOI:10.1016/j.knosys.2017.01.036
[29]
LIN G P, LIANG J Y, QIAN Y H. Multigranulation rough sets: From partition to covering[J]. Information Sciences, 2013, 241: 101-118. DOI:10.1016/j.ins.2013.03.046
[30]
LIU C H, MIAO D Q, QIAN J. On multi-granulation covering rough sets[J]. International Journal of Approximate Reasoning, 2014, 55(6): 1404-1418. DOI:10.1016/j.ijar.2014.01.002
[31]
LIU C H, PEDRYCZ W, WANG M Z. Covering-based multigranulation decision-theoretic rough sets[J]. Journal of Intelligent & Fuzzy Systems, 2017, 32(1): 749-765.
[32]
MA J M, YAO Y Y. Rough set approximations in multi-granulation fuzzy approximation spaces[J]. Fundamenta Informaticae, 2015, 142(1-4): 145-160. DOI:10.3233/FI-2015-1288
[33]
XU W H, WANG Q R, LUO S Q. Multi-granulation fuzzy rough sets[J]. Journal of Intelligent & Fuzzy Systems, 2014, 26(3): 1323-1340.
[34]
KONG Q Z, WEI Z X. Further study of multi-granulation fuzzy rough sets[J]. Journal of Intelligent & Fuzzy Systems, 2017, 32(3): 2413-2424.
[35]
FENG T, MI J S. Variable precision multigranulation decision-theoretic fuzzy rough sets[J]. Knowledge-Based Systems, 2016, 91: 93-101. DOI:10.1016/j.knosys.2015.10.007
[36]
HUANG B, GUO C X, ZHANG Y L, et al. Intuitionistic fuzzy multigranulation rough sets[J]. Information Sciences, 2014, 277: 299-320. DOI:10.1016/j.ins.2014.02.064
[37]
ZHANG H D, HE Y P, XIONG L L. Multi-granulation dual hesitant fuzzy rough sets[J]. Journal of Intelligent & Fuzzy Systems, 2016, 30(2): 623-637.
[38]
VAN T L, HU B Q. L-fuzzy multigranulation rough set based on residuated lattices[J]. Journal of Intelligent & Fuzzy Systems, 2016, 30(5): 2821-2831.
[39]
ZHANG C, LI D Y, MU Y M. An interval-valued hesitant fuzzy multigranulation rough set over two universes model for steam turbine fault diagnosis[J]. Applied Mathematical Modelling, 2017, 42: 693-704. DOI:10.1016/j.apm.2016.10.048
[40]
SHE Y H, HE X L, SHI H X. A multiple-valued logic approach for multigranulation rough set model[J]. International Journal of Approximate Reasoning, 2017, 82: 270-284. DOI:10.1016/j.ijar.2016.12.006
[41]
LI J H, HUANG C C, QI J J. Three-way cognitive concept learning via multi-granularity[J]. Information Sciences, 2017, 378: 244-263. DOI:10.1016/j.ins.2016.04.051
[42]
LI J H, REN Y, MEI C L, et al. A comparative study of multigranulation rough sets and concept lattices via rule acquisition[J]. Knowledge-Based Systems, 2016, 91: 152-164. DOI:10.1016/j.knosys.2015.07.024
[43]
KANG X P, LI D Y, WANG S, et al. Formal concept analysis based on fuzzy granularity base for different granulations[J]. Fuzzy Sets and Systems, 2012, 203: 33-48. DOI:10.1016/j.fss.2012.03.003
[44]
YANG X B, SONG X N, CHEN Z H. On multigranulation rough sets in incomplete information system[J]. International Journal of Machine Learning and Cybernetics, 2012, 3(3): 223-232. DOI:10.1007/s13042-011-0054-8
[45]
YANG H L, GUO Z L. Multigranulation decision-theoretic rough sets in incomplete information systems[J]. International Journal of Machine Learning and Cybernetics, 2015, 6(6): 1005-1018. DOI:10.1007/s13042-015-0407-9
[46]
PAN W, SHE K, WEI P Y. Multi-granulation fuzzy preference relation rough set for ordinal decision system[J]. Fuzzy Sets and Systems, 2017, 312: 87-108. DOI:10.1016/j.fss.2016.08.002
[47]
JU H R, LI H X, YANG X B. Cost-sensitive rough set: A multi-granulation approach[J]. Knowledge-Based Systems, 2017, 123: 137-153. DOI:10.1016/j.knosys.2017.02.019
[48]
LIU X, QIAN Y H, LIANG J Y. A rule-extraction framework under multigranulation rough sets[J]. International Journal of Machine Learning and Cybernetics, 2014, 5(2): 319-326. DOI:10.1007/s13042-013-0194-0
[49]
YANG X B, QI Y, YU H L. Updating multigranulation rough approximations with increasing of granular structures[J]. Knowledge-Based Systems, 2014, 64: 59-69. DOI:10.1016/j.knosys.2014.03.021
[50]
ZHANG Q H, ZHANG Q, WANG G Y. The uncertainty of probabilistic rough sets in multi-granulation spaces[J]. International Journal of Approximate Reasoning, 2016, 77: 38-54. DOI:10.1016/j.ijar.2016.06.001
[51]
FEN T, FAN H T, MI J S. Uncertainty and reduction of variable precision multigranulation fuzzy rough sets based on three-way decisions[J]. International Journal of Approximate Reasoning, 2017, 85: 36-58. DOI:10.1016/j.ijar.2017.03.002
[52]
MA Z M, MI J S. A comparative study of MGRSs and their uncertainty measures[J]. Fundamenta Informaticae, 2015, 142(1-4): 161-181. DOI:10.3233/FI-2015-1289
[53]
LIN G P, LIANG J Y, QIAN Y H. Uncertainty measures for multigranulation approximation space[J]. International Journal of Uncertainty Fuzziness and Knowledge-Based Systems, 2015, 23(3): 443-457. DOI:10.1142/s0218488515500191
[54]
TAN A H, WU W Z, TAO Y Z. On the belief structures and reductions of multigranulation spaces with decisions[J]. International Journal of Approximate Reasoning, 2017, 88: 39-52. DOI:10.1016/j.ijar.2017.05.005
[55]
TAN A H, WU W Z, LI J J, et al. Evidence-theory-based numerical characterization of multigranulation rough sets in incomplete information systems[J]. Fuzzy Sets and Systems, 2016, 294: 18-35. DOI:10.1016/j.fss.2015.08.016
[56]
ZENG K, SHE K, NIU X Z. Multi-granulation entropy and its applications[J]. Entropy, 2013, 15(6): 2288-2302.
[57]
HUNAG B, LI H X, FENG G F, et al. Inclusion measure-based multi-granulation intuitionistic fuzzy decision-theoretic rough sets and their application to ISSA[J]. Knowledge-Based Systems, 2017, 138: 220-231. DOI:10.1016/j.knosys.2017.10.003
[58]
LIN Y J, LI J J, LIN P R, et al. Feature selection via neighborhood multi-granulation fusion[J]. Knowledge-Based Systems, 2014, 67: 162-168. DOI:10.1016/j.knosys.2014.05.019
[59]
ZHAO H, ZHU W. Optimal cost-sensitive granularization based on rough sets for variable costs[J]. Knowledge-Based Systems, 2014, 65: 72-82. DOI:10.1016/j.knosys.2014.04.009
[60]
VLUYMANS S, CORNELIS C, HERRERA F, et al. Multi-label classification using a fuzzy rough neighborhood consensus[J]. Information Sciences, 2018, 433: 96-114.
[61]
ZHAO H, WANG P, HU Q H. Cost-sensitive feature selection based on adaptive neighborhood granularity with multi-level confidence[J]. Information Sciences, 2016, 366: 134-149. DOI:10.1016/j.ins.2016.05.025
[62]
ZHANG J B, LI T R, RUAN D, et al. Neighborhood rough sets for dynamic data mining[J]. International Journal of Intelligent Systems, 2012, 27(4): 317-342. DOI:10.1002/int.v27.4
[63]
CHEN Y M, XUE Y, MA Y, et al. Measures of uncertainty for neighborhood rough sets[J]. Knowledge-Based Systems, 2017, 120: 226-235. DOI:10.1016/j.knosys.2017.01.008
[64]
LI F, HU B Q. A new approach of optimal scale selection to multi-scale decision tables[J]. Information Sciences, 2017, 381: 193-208. DOI:10.1016/j.ins.2016.11.016
[65]
WU W Z, LEUNG Y. Optimal scale selection for multi-scale decision tables[J]. International Journal of Approximate Reasoning, 2013, 54(8): 1107-1129. DOI:10.1016/j.ijar.2013.03.017
[66]
吴伟志, 陈颖, 徐优红, 等. 协调的不完备多粒度标记决策系统的最优粒度选择[J]. 模式识别与人工智能, 2016, 29(2): 108-115.
[67]
吴伟志, 陈超君, 李同军, 等. 不协调多粒度标记决策系统最优粒度的对比[J]. 模式识别与人工智能, 2016, 29(12): 1103-1111.
[68]
XIE J P, YANG M H, LI J H, et al. Rule acquisition and optimal scale selection in multi-scale formal decision contexts and their applications to smart city[J]. Future Generation Computer Systems, 2017, 73(1): 1-30.
[69]
HAO C, LI J H, FAN M, et al. Optimal scale selection in dynamic multi-scale decision tables based on sequential three-yay decisions[J]. Information Sciences, 2017, 415: 213-232.
[70]
顾沈明, 顾金燕, 吴伟志, 等. 不完备多粒度决策系统的局部最优粒度选择[J]. 计算机研究与发展, 2017, 54(7): 1500-1509.
[71]
SHE Y H, LI J H, YANG H L. A local approach to rule induction in multi-scale decision tables[J]. Knowledge-Based Systems, 2015, 89: 398-410. DOI:10.1016/j.knosys.2015.07.020
[72]
吴伟志, 高仓健, 李同军. 序粒度标记结构及其粗糙近似[J]. 计算机研究与发展, 2014, 51(12): 2623-2632. DOI:10.7544/issn1000-1239.2014.20131048
[73]
戴志聪, 吴伟志. 不完备多粒度序信息系统的粗糙近似[J]. 南京大学学报(自然科学版), 2015, 51(2): 361-367.
[74]
WU W Z, QIAN Y H, LI T J, et al. On rule acquisition in incomplete multi-scale decision tables[J]. Information Sciences, 2017, 378: 282-302. DOI:10.1016/j.ins.2016.03.041
[75]
GU S M, WU W Z. On knowledge acquisition in multi-scale decision systems[J]. International Journal of Machine Learning and Cybernetics, 2013, 4(5): 477-486. DOI:10.1007/s13042-012-0115-7
[76]
GU S M, WU W Z. Knowledge acquisition in inconsistent multi-scale decision systems [C]//LNAI 6964: Proc of the 6th Int Conf on Rough Sets and Knowledge Technology. Berlin: Springer, 2011: 669-678. http://www.springerlink.com/content/v36r480mt1687p26/
[77]
顾沈明, 张昊, 吴伟志, 等. 多标记序决策系统中基于局部最优粒度的规则获取[J]. 南京大学学报(自然科学版), 2017, 53(6): 1012-1022.
[78]
LI F, HU B Q, WANG J. Stepwise optimal scale selection for multi-scale decision tables via attribute significance[J]. Knowledge-Based Systems, 2017, 129: 4-16. DOI:10.1016/j.knosys.2017.04.005
[79]
XU Y H, WU W Z, TAN A H. Optimal scale selections in consistent generalized multi-Scale decision tables [C]//LNAI 10313: Proceedings of the International Joint Conference on Rough Sets. Berlin: Springer, 2017: 185-198. https://link.springer.com/chapter/10.1007%2F978-3-319-60837-2_15
[80]
吴伟志, 杨丽, 谭安辉, 等. 广义不完备多粒度标记决策系统的粒度选择[J]. 计算机研究与发展, 2018, 55(6): 1263-1272.
[81]
吴伟志, 庄宇斌, 谭安辉, 等. 不协调广义多尺度决策系统的尺度组合[J]. 模式识别与人工智能, 2018, 31(6): 485-494.