«上一篇
文章快速检索     高级检索
下一篇»
  智能系统学报  2017, Vol. 12 Issue (6): 889-893  DOI: 10.11992/tis.201609014
0

引用本文  

曲国华, 李春华, 张强. 因素空间中属性约简的区分函数[J]. 智能系统学报, 2017, 12(6): 889-893. DOI: 10.11992/tis.201609014.
QU Guohua, LI Chunhua, ZHANG Qiang. Attribute reduction and discernibility function in factor space[J]. CAAI Transactions on Intelligent Systems, 2017, 12(6): 889-893. DOI: 10.11992/tis.201609014.

基金项目

国家自然科学基金项目(71371030);山西省重点学科建设项目编号;山西财经大学青年科研基金项目(QN-2017007);山西省高等学校哲学社会科学研究项目(2017326).

通信作者

曲国华. E-mail: xz_qgh@163.com.

作者简介

曲国华,男,1982年生,讲师,博士,主要研究方向为模糊决策、人工智能。先后主持山西省哲学社会科学1项,山西财经大学校青年基金项目1项,山西财经大学专项基金一项;参与国家自然科学基金3项,国家自然科学基金和高等学校博士学科点专项科研基金资助课题1项,北京市哲学社会科学规划项目1项,广东省软科学项目1项,广东省自然科学基金项目1项,广东省哲学社科十二五规划项目1项,广东省教育厅科技创新项目1项,广州市哲学社科十二五规划项目1项。发表学术论文15余篇;
李春华,女,1988年生,硕士研究生,主要研究方向为模糊决策、环境与资源保护法。近3年参与国家自然科学基金1项,国家社会科学基金1项,山西省哲学社会科学1项,发表学术论文5篇;
张强,1955年生,教授,博士生导师,主要研究方向为管理决策、对策论(博弈论)、模糊集理论与应用、非可加测度论、物流与供应链管理、智能算法、城市交通网络平衡分析。先后主持与参加科研项目10项,其中国家自然科学基金项目6项,发表学术论文400余篇,其中80篇被SCI检索,40篇被EI检索

文章历史

收稿日期:2016-09-12
因素空间中属性约简的区分函数
曲国华1, 李春华1, 张强2    
1. 山西财经大学 管理科学与工程学院,山西 太原 030006;
2. 北京理工大学 管理与经济学院,北京 100081
摘要:粗糙集用属性所构建的信息系统来描写事物,用各种细化的熵指标来实现信息的标度,为挖掘知识的关系数据库提供了数学基础,当前人们最关注的是她在属性约简中所能发挥的作用。但是它用以约简的区分函数定义不清楚,当没有属性能区分两个对象时,相应的属性变量为什么不取0而是取1?这一问题成为粗糙集应用的一个瓶颈。本文的目的是要为区分函数寻找更合理的解释和运用。所采用的方法是,首先要对属性名之间的运算要下定义,属性名与属性值不同,如果用属性值的运算来代替属性名的运算,就会在理解上出现混乱。为此,我们用因素空间的理论,将属性名视为因素,用因素之间的运算来定义属性名的运算,使区分函数有了明确的定义,同时也清楚解释了属性变量在特殊情况下为何取1的问题。这一结果说明因素空间可以加深粗糙集的理论基础,提高其解决问题的能力。
关键词因素空间    粗糙集    因素约简    区分函数    因果分析法    
Attribute reduction and discernibility function in factor space
QU Guohua1, LI Chunhua1, ZHANG Qiang2    
1. School of Management Science and Engineering, Shanxi University of Finance and Economics, Taiyuan 030006, China;
2. School of Management and Economics, Beijing Institute of Technology, Beijing 100081, China
Abstract: To enable description, Rough Set theory uses an information system constructed by attributes, and various detailed entropy indexes are employed to achieve the scale of information; this provides a mathematical basis for knowledge mining of relational databases. Current research is focused on the role that Rough Set plays in attribute reduction; however, definition of the discernibility function used for attribute reduction is unclear. For example, when there is no attribute to distinguish between two objects, it is unclear why 1 is used instead of 0 for the corresponding attribute variable. As such, this problem causes a bottleneck when applied in Rough Set. The aim of this paper is to find a more reasonable explanation and application for discernibility functions. The method firstly defines the operation between attribute names, which is different from the operation between attribute values, and the attribute name is different from the attribute value. If operation of the attribute value is confused with that of the attribute name, the meaning will subsequently be unclear. To avoid such confusion, Factor Space theory is employed, as it treats attribute names as factors. The theory uses the operation between factors to define the operation of the attribute name, enabling clear definition of the discernibility function, and explains why the attribute variable takes the value of 1 under special circumstances. Results indicate that Factor Space theory can deepen the theoretical basis of Rough Set and improve its ability to solve problems.
Key words: factor space    rough set    factor reduction    discernibility function    factorial causality analysis    

粗糙集[1]、形式概念分析[2]和因素空间[3]是在1982年同时诞生的3个数学流派。3种理论都明确地把知识与思维过程作为数学描述的对象,可被视为智能数学的代表。其中,在数据库中最早付诸实践的是粗糙集。其领军人物Polkowski和Skowron[4]在1989发表的《粗糙集与知识发现》一文引领了第十届国际人工智能大会上所提出的KDD(数据库知识发现)的新潮流。粗糙集用属性所构建的信息系统来描写事物,用各种细化的熵指标来实现信息的标度,为数据知识挖掘提供了理论基础。相比之下,Wille的形式概念分析就没有那么明确的实际背景。他的理论是在被埋没了12年之后,才被人们发现的。他的《形式概念分析》一书围绕概念格提取这一主题而展开,数学严谨。集合论向世人强调了任何概念的外延都是一个集合。但若反过来问:任何集合都一定是概念的外延吗?就不好回答了。Wille明确地回答:No!他第一次明确地从数学上提出了内涵与外延之间的对合性条件,只有满足对合性的集合和属性对才能形成概念。这是他的重要贡献。在这一点上粗糙集的用词就显得太粗糙了。它把由任一映射所形成的划分都叫做知识,那么,任一集合都可以由其特征函数形成一个划分。由此可推得:任一集合必是某概念的外延,这就与Wille的理论产生了矛盾。人工智能要运用概念进行识别与搜索,内涵是我们识别事物的依据,外延是我们实现搜寻的结果,如果内涵与外延不相一致,那么人工智能就不具备实践的前提。这不能不说是粗糙集在用词上的一个疏忽。

在对属性的称呼上也存在着矛盾。例如,颜色有红、黄、蓝 $ \cdots\cdots $ 之分,是把颜色叫做一个属性,还是把红、黄、蓝等都叫做属性?属性的英文是Attribute。Wille曾以科教片《生物与水》为例来区分说:鱼和水草都是“在水中生活”而狗和豆却是“在陆地上生活”。他把“在水中生活”与“在陆地上生活”这两个词视为两个不同的attribute[16]。可见,Attribute是指属性的状态,而不是指“生物栖性”这一属性名称。但是,粗糙集则把汽车按颜色、车长、车重、马力、里程等属性来分类,在那里,Attribute指的是颜色、车长、车重,它们都是属性的名称而不是属性值[15]。这两种不同的用法一直被国人懵懂地引用着。细心的学者把Wille的Attribute译成属性值而把粗糙集中的Attribute译成属性名,这是十分明智的。

以上矛盾并没有影响粗糙集与形式概念的融合,二者求同存异,彼此互补,都得到了良好的发展[5-6]。Wille的形式背景表以属性值来分列,而粗糙集的信息系统表以属性名来分列,前者的应用效率是比不上后者的。所以,粗糙集在应用邻域一直先行。在跨世纪的年代里,粗糙集在属性约简方面一度在机器学习的应用邻域走红,当时,特征提取仍然是人工智能的瓶颈,特征要靠专家的经验来提取,这就必须限定识别空间的维数。在高维度数据面前,如何降低维度是最大的关键。于是,粗糙集的属性约简方法被人们视为新的希望。出现了大量应用属性约简来提取特征的研究[7-9]。尤其是支持向量机与属性约简相结合[10],更使人注目。遗憾的是,这个时期不太长久,属性约简目前已经减弱了。因为属性约简要用到一个概念工具,叫做区分矩阵(或差异矩阵)。正是由于这个概念的奇特性影响了事态发展。为了说明这件事情,需要回顾一下有关定义。

1 粗糙集信息系统

在粗糙集中,一个信息系统(或称知识表达系统)被描述成一个四元组S=(U, A, V, f),其中U是对象的非空集合,A是属性名的集合,V是属性值的集合,f是从对象x就着属性AV所作的映射。为了便于理解,我们对以下所引用的定义符号都略有改变。

定义1[11]  矩阵 ${\mathit{\boldsymbol{D}}} = \left\{ {\alpha (x,y)} \right\}\left( {x,y \in U} \right)$ 叫做S上的一个区分矩阵(discernibility matrix),其中

$\alpha (x,y) = \left\{ {a \in A\left| {f(x,a) \ne f(y,a)} \right.} \right\}$ (1)

这个定义的奇特之处在于矩阵中的元素 $\alpha (x,y)$ 不是实数,不是区间,不是向量,而是属性名的集合。由D还派生出另外一个概念,叫做区分函数。对每一个属性名a指定一个布尔变量,仍记作a,若存在属性名将对象xy分开,则对 $\alpha (x,y)$ 指定一个布尔变量,用 $ \vee \alpha (x,y) = \vee \left\{ {a \in A\left| {f(x,a) \ne f(y,a)} \right.} \right\}$ 来表示,记作 $\sum {\alpha (x,y)} $ ,若不存在将对象xy分开的属性名,则对 $\alpha (x,y)$ 指定布尔变量“1”(对∧与∏的叙述亦类似)[12]

定义2[11] 区分函数∆的定义为

$\Delta = \prod\nolimits_{\left( {x,y \in U \times U} \right)} {\left( {\sum {\alpha (x,y)} } \right)} $ (2)

在这里设A={a1, a2, $ \cdots $ , am},这里便设置了m个布尔变量。于是 $\alpha (x,y) = \left\{ {{a_i} \in A\left| {f(x,{a_i}) \ne f(y,{a_i})} \right.} \right\}$ 便被指定成括号中所包含的布尔变量的析取,设那几个变量是 ${a_{\left( 1 \right)}},{a_{\left( 2 \right)}}, \cdots ,{a_{\left( k \right)}}$ , 所指定的这个布尔变量便具有布尔表达式 ${a_{\left( 1 \right)}} \vee {a_{\left( 2 \right)}} \cdots \vee {a_{\left( k \right)}} = \vee \left\{ {{a_{\left( 1 \right)}},{a_{\left( 2 \right)}}, \cdots ,{a_{\left( k \right)}}} \right\}$ ,记作 $\sum {\alpha (x,y)} = \vee \left\{ {{a_{\left( 1 \right)}},{a_{\left( 2 \right)}}, \cdots ,{a_{\left( k \right)}}} \right\}$ 。由于这个布尔表达式中只含析取运算,叫做析取式。而在式(2)中,由于∆是由布尔变量先组成析取式而后再进行合取,这种表达形式叫做合取范式。布尔代数中有方法把∆从合取范式改写为析取范式,意思是把析取与合取的运算次序颠倒一下。 $\Delta = \sum {\prod\nolimits_{\left( {x,y \in U \times U} \right)} {\left( {\alpha (x,y)} \right)} } $ 就叫做析取范式。再把析取的这些析取式一一甄别,去掉被蕴含的项,剩下的表达式就叫做极小析取范式。文献[12]的核心论断是:区分函数的极小析取范式中的每一个合取项就是S的一个属性约简,反之亦然。以上就是粗糙集关于属性约简的基本论述。

对于上述内容,应用工作者多看不懂,数学工作者则想不明。有一连串问题:对于属性a为什么要指定一个布尔变量,指定后的运算意义和根据是什么不太明确。布尔变量的析取(∨或∑)合取(∧或∏)对于属性来说究竟是什么意思?若不存在将对象xy分开的属性名,为什么对a(x, y)指定布尔变量1而不是0?为什么区分函数的极小析取范式中的所有合取项就是S的全部属性约简粗糙集?如此等等都阻碍了人们的理解和应用。

最关键的问题是,粗糙集从未定义过属性名之间的运算,而区分矩阵这一工具所要操作的就是属性名运算。这就形成一种理解障碍。人们曾想通过实际经验来越过障碍,但是,粗糙集中的属性指的是属性名而不是属性值。我们都有属性值之间的运算经验,要把“头发金黄”与“身材高大”这两个属性值进行“且”的运算,我们能理解这种运算结果就是属性值“头发金黄而且身材高大”。可是,要把“身材”与“发色”这两个属性名来加以或、且、非的运算,我们便无从想象了。

其实,这里只差一步,就是应当对属性名称定义运算,给这些运算以合理解释,这个理解障碍就能克服。属性约简的方法就能继续向前发展,降温的应用领域就能重新热起来。而这方面的工作,因素空间早就做了。因素就是粗糙集中所说的属性名。因素空间特地定义了因素之间的运算。本文就是要用因素空间的理论来解释区分矩阵。并给属性约简提供新的发展思路。

2 因素空间中分辨过程的因素约简

因素空间是汪培庄[12]在1982年提出的以智能描述为主题的数学理论,曾在知识表示和人工智能领域发挥过重要作用,近年来,又以数据科学为重点,为大数据处理提供坚实的数学基础[13-15]

因素f是串领属性的关键词。红,黄,蓝,百,黑 $ \cdots\cdots $ ,是一串属性值,由颜色二字来串领,颜色f就叫因素,它所串出的属性值的集合叫做f的(属性)状态空间,记作X(f)={红,黄,蓝,百,黑, $ \cdots $ },它形成一个维度,一种广义的坐标轴,因素是抽象坐标的维度名称。因素是分析,把对象映射称为定性值,分析以后再综合,就形成一个广义的坐标架,事物就被描述成为其中的点。因素空间企图为事物描述及认知过程提供一个普适的坐标架。因素空间中的因素就是粗糙集中所说的属性名。因素空间中所说的属性,就是粗糙集中的属性值。

定义3[10] 称集合族 ${\varPsi } = {\{ X(f)\} _{(f \in F)}}$ U上的一个因素空间,如果满足公理:

1) 指标集 $F = ( \vee , \wedge {,^c}, {1}, {0})$ 是一个完全的布尔代数;

2) X(0)={∅};

3) 对任意 $T \subseteq F$ ,若

$(\forall s,t \in T)(s \ne t \Rightarrow s \wedge t = {\rm{0}})$

$X( \vee \{ f|f \in T\} ) = {\prod _{f \in T}}X(f)$

4) $\forall f \in F$ ,都有一个映射

$f:D(f) \to X(f){\kern 1pt} {\kern 1pt} (D(f) \subseteq U)$

F叫做因素集,其最大、最小元1和0分别叫做全因素和零因素,X(f)叫做f-性态空间。

所谓一个因素空间就是以因素为指标集的一族属性状态空间,而这些因素之间有运算,构成一个布尔代数F=(F, ∨, ∧, c)。运算符∧、∨分别表示因素的分解与综合,其中难以理解的是分解。这要通过因素在粗细上所形成的序关系来说明。因素的考量维度有多寡之分。考虑的维度少,对象就朦胧难分,考虑的维度多,对象才能彼此分离。越大越细,越小越抽。如果因素f所作的划分比因素g的划分更细的话,我们就称fg大,记作fgfg大当且仅当对任意u, vU, 若f(u)=f(v)则g(u)=g(v)(或者,若g(u)≠g(v)则f(u)≠f(v))。

不难证明,(F, ≥)是一个偏序集。而且布尔代数的运算就是依托这个序关系而建立起来的:fg=sup(f, g);fg=inf(f, g)。若把序关系形象地说成是上下级关系,fg就是fg的最小公共上司,fg就是fg的最大公共下级。所以,我们把因素的(∨,∧)运算不做析取–合取运算,而是反过来叫做综合–分解运算。因素是分析与综合的工具。分解∧是将因素由大变小(由粗变细)的过程,而综合∨是使因素由小变大(由细变粗)的反过程。F=(F, ∨, ∧, c)形成一个布尔代数,因素是其中的布尔变量。最大、最小元1和0分别叫做全因素与零因素。一个因素不能分解成除自己与零因素之外的下级因素(简称因子)叫做质因素或原子因素。对于区分事物来说,因素合得越大,区分的能力就越强,这是一条最基本的原则。

因素空间中的因素就是粗糙集中所说的属性名。因素空间中所说的属性,就是粗糙集中的属性值。因素空间对区分矩阵的诠释,是从对事物的分辨开始的。

定义4 给定因素空间,称因素 $f\left( { \in F} \right)$ 能分辨 $A\left( { \subseteq U} \right)$ ,如果对任意 $u,v \in A$ 都有 $f(u) \ne f(v)$

粗糙集的区分矩阵是对对象两两分辨的因素集为元素的矩阵。由于因素本身就是布尔变量,就无需再作什么指定。因素之间早就定义了综合与分解的运算,并且约定,一组相对简单的因素 ${f_1},{f_2}, \cdots ,$ ${f_k}$ 可以通过综合而形成一个复杂因素 $f = {f_1} \vee {f_2} \vee \cdots \vee {f_k}$ 。所以,区分矩阵更可以理解成是以两两分辨因素为元素的矩阵。矩阵中的元素是一个复杂因素(用一个复杂因素去取代因素的集合)。

命题1 若f能分辨A,且 $g \geqslant f$ ,则g能分辨A

证明  f能分辨A的意思是,对任意 $u,v \in A$ 都有 $f(u) \ne f(v)$ 。而 $g \geqslant f$ 意味着若 $f(u) \ne f(v)$ $g(u) \ne g(v)$ 。故对任意 $u,v \in A$ 都有 $g(u) \ne g(v)$ 。故g能分辨A。证毕。

命题2 若f能分辨A,且BA,则f能分辨B

证明显然成立。

定义5 称因素空间是正则的,如果能保证:fg能分辨A,只要fg都能分辨A

虽不能证明所有因素空间都是正则的,但正则性却是普遍地近似的存在着。

命题3  在正则因素空间里,若f1能分辨A1, A2, $ \cdots $ , fn能分辨An, 则 $f \!=\! {f_1} \wedge {f_2} \! \wedge \! \cdots \! \wedge \! {f_n}$ 能分辨 ${A_1} \! \cap \! {A_2} \! \cap \! \cdots \! \cap \! {A_n}$

证明由命题2知,对任意j=1, 2, $ \cdots $ , n, fj能分辨 ${A_1} \cap {A_2} \cdots \cap {A_n}$ 。由于正则性知本命题真。证毕。

定义6 给定AU,由 $f\left( {u,v} \right) = \wedge \{ f|f \in F,f\left( u \right) \ne $ $f\left( v \right)\} $ 为元素构成的矩阵,叫做区分矩阵。当没有因素f能区分对象uv时,令f(u, v)=1(全因素)。

f(u, v)是能区分uv的因素的最大下级公共因素。这样的因素越少,公共下级因素就越大,当没有这样的因素时,公共下级因素就取最大。全因素应当能区分所有的对象。对角线上的元素全是1。这也解释了定义中的约定为什么是合理的。

定义7 对任意AU

$d\left( A \right) = \vee \{ f\left( {u,v} \right)|u,v \in A\} = \vee \{ \wedge \{ f|f\left( u \right) \ne f\left( v \right)\} |u,v \in A\} $

叫做A的因素区分函数。

注意,这里的区分函数就是定义2中所说的区分函数,只不过把析取与合取的符号互相颠倒罢了。

命题4 在正则的因素空间中,若区分矩阵中不出现最小元0,A的因素区分函数就是能分辨A的最小因素。

证明 在正则的因素空间中,由命题2.3知f(u, v)能分辨uv。因 $d\left( A \right) = \vee \{ f\left( {u,v} \right)|u,v \in A\} \geqslant f\left( {u,v} \right)$ ,所以根据命题2.1,对任意u, vAd(A)都能分辨uv,亦即 $d\left( A \right)\left( u \right) \ne d\left( A \right)\left( v \right)$ 。这就说明d(A)能分辨A

g能分辨A,则对任意u, vA, uv, 都有g(u)≠g(v)。于是, $g \in \{ f|f\left( u \right) \ne f\left( v \right)\} $ 。所以f(u, v)≤g。由于这个不等式对任意u, vAuv)都成立,便有d(A)≤g,故d(A)是能分辨A的最小因素。

证毕。

注意,粗糙集用区分矩阵提取的是极小属性约简,本文提出的是最小因素。这看起来是一大进步,但是,命题4中要求区分矩阵不出现0分解,这是一个太强的约束,现实意义不大。

定义8 设因素fg都能分辨A,且f<g,则称在分辨Af是对g的约简因素,从fg,叫做是一次因素约简。固定A=Ug=全因素1,1的约简因素就叫约简因素。因素约简问题就是要找出约简因素,越小越好。因素空间对此提供了另一种现实的因素约简的途径,一是概念划分中以分辨度来实现的因素约简算法,一是决策表以决定度来实现的因素约简算法,其复杂度为O(m2n),这里mn分别表示对象和因素的个数。

3 结束语

因素空间中所说的因素是事物生成与思维描述的第一要素。它与粗糙集的属性名相通,但却有更深刻的涵义,它是事物的质根,是广义的基因,它不是被动地描述事物,而是引领着人们的思考,出点子,想办法,都指的是因素,抓注意矛盾,也抓的是因素。运用因素之间的运算,除了能说清楚什么是区分矩阵以外,还能在属性约简的实际算法上作贡献。用区分函数来约简属性是一种理想的方式,其算法很难实现,粗糙集用区分矩阵求极小属性存在着N-hard困境,有的文献要用到整值规划,后者的复杂性已被证明是指数型的,不存在多项式算法。因素空间可以提供简捷的算法。

参考文献
[1] PAWLAK Z. Rough sets[J]. International journal of computer and information sciences, 1982, 11(5): 341-356. (0)
[2] WILLE R. Restructuring lattice theory: an approach based on hierarchies of concepts[M]. Ordered sets. Springer. 1982: 445-470. (0)
[3] 汪培庄, SUGENOM. 因素场与模糊集的背景结构[J]. 模糊数学, 1992(2): 45-54.
WANG Peizhuang, SUGENO M. The factors field and background structure for fuzzy subsets[J]. Fuzzy mathematics, 1992(2): 45-54. (0)
[4] POLKOWSKI S L, SKOWRON S A. Rough sets in knowledge discovery 2 [M]. Physica-Verlag HD, 1989. (0)
[5] 叶东毅, 陈昭炯. 一个新的差别矩阵及其求核方法[J]. 电子学报, 2002, 30(7): 1086-1088.
YE Dongyi, CHEN Zhaojiong. A new discernibiligy maatrix and the computation of a core[J]. Acta electornica sinica, 2002, 30(7): 1086-1088. (0)
[6] 王昊, 朱惠, 邓三鸿. 基于形式概念分析的学科术语层次关系构建研究[J]. 情报学报, 2015(6): 616-627.
WANG Hao, ZHU Hui, DENG Sanhong. Study on construction of hierarchy relationship of subject terms based on formal concept analysis[J]. Journal of the China society for scientific andtechnical information, 2015(6): 616-627. (0)
[7] 李元诚, 方廷健. 一种基于粗糙集理论的SVM短期负荷预测方法[J]. 系统工程与电子技术, 2004, 26(2): 187-190.
LI Yuanchen, FANG Tingjian. Approach to forecast short-term load of SVM based on rough sets[J]. Systems engineering and electronics, 2004, 26(2): 187-190. (0)
[8] 张腾飞, 肖健梅, 王锡淮. 粗糙集理论中属性相对约简算法[J]. 电子学报, 2005, 33(11): 2080-2083.
ZHANG Tengfei, XIAO Jianmei, WANG Xihuai, et al. Algorithms of attribute relative reduction in rough set theory[J]. Acta electornica sinica, 2005, 33(11): 2080-2083. (0)
[9] 戎晓霞, 刘家壮, 马英红. 基于Rough集的决策表属性最小约简的整数规划算法[J]. 计算机工程与应用, 2004, 40(11): 24-25.
RONG Xiaoxia, LIU Jiazhuang, MA Yinghong. Integer programming algorithm for finding minimal reduction in decision table based on rough set[J]. Computer engineering and application, 2004, 40(11): 24-25. (0)
[10] XU Y, WANG L. Fault diagnosis system based on rough set theory and support vector machine[C]//Proceedings of the Fuzzy Systems and Knowledge Discovery, Second International Conference. Changsha, China.2005. (0)
[11] 张文修. 粗糙集理论与方法 [M]. 北京: 科学出版社, 2001.
ZHANG Wenxiu. Theory and method of rough set[M]. Beijing: Science Press, 2001. (0)
[12] 汪培庄, 李洪兴. 知识表示的数学理论 [M]. 天津:天津科学技术出版社, 1994.
WANG Peizhuang, LI Hongxing. A mathematical theory on knowledge representation[M]. Tianjin: Tianjin Scientific and Technical Press, 1994. (0)
[13] 汪培庄. 因素空间与因素库[J]. 辽宁工程技术大学学报: 自然科学版, 2013, 32(10): 1-8.
WANG Peizhuang. Factor spaces and factor data-bases[J]. Journal of Liaoning technical university: natural science, 2013, 32(10): 1-8. (0)
[14] 汪培庄, 郭嗣琮, 包研科, 等. 因素空间中的因素分析法[J]. 辽宁工程技术大学学报: 自然科学版, 2014, 33(7): 865-870.
WANG Peizhuang, GUO Sicong, BAO Yanke, et al. Factorial analysis in factor space[J]. Journal of Liaoning technical university: natural science, 2014, 33(7): 865-870. (0)
[15] 刘海涛, 郭嗣琮. 因素分析法的推理模型[J]. 辽宁工程技术大学学报, 2015, 34(1): 124-128.
LIU Haitao, GUO Sicong. The reasoning model for factorial analysis[J]. Journal of Liaoning engineering technical university, 2015, 34(1): 124-128. (0)