2. 华侨大学 现代应用统计与大数据研究中心, 福建 厦门 361021
2. Research Center of Applied Statistics and Big Data, Huaqiao University, Xiamen 361021, China
大数据时代,相似性度量方法通常作为数据挖掘任务的基础, 使得相应的算法和技术能够在复杂数据中发现具有潜在价值的信息与知识[1-2],文本挖掘技术与方法通常用于处理与分析非结构化文本数据,其中相似性度量质量的好坏将很大程度上影响文本挖掘质量和效率,与文本相关的数据挖掘任务结合,也广泛存在于现实应用中, 例如聚类与分类、信息检索、机器学习、网络信息认定[3]与人工智能等文本信息处理。
根据文献[4]中提到的概念层次理论,文本相似性度量建立在句子相似性度量之上,句子相似性度量进一步以词语的相似性为前提。因此,词语相似性度量结果的好坏直接影响文本相似性度量以及文本聚类、分类等后续文本挖掘任务与工作的质量。
词语相似度指在不同位置,词语可以互相替换使用的程度,文本相似性度量通常分为基于语义知识规则的相似性度量和基于统计的相似性度量。基于语义知识规则的文本相似度计算主要建立在基于Wordnet[5-6]、MindNet[7]、FramNet[8]等语义知识库的基础上。20世纪90年代开始,涌现出大量基于Wordnet的语义相似度计算算法,主要针对外文长文本的语义相似度计算[9]。现有基于语义分析的中文文本相似性度量方法主要依托于同义词词林[10]与知网[11]。刘群等[12]以知网为依托,将词语相似性度量分为义原相似性度量、概念相似性度量和词语相似性度量3个步骤,并提出了基于知网的词语相似度计算方法(ZW_Sim)。由于该方法的适用性和有效性,部分学者在此基础上对该相似度计算方法进行改进。林丽等[13]在基于知网的词语相似度计算中引入弱义原的概念,即通过计算除区分能力弱的第一基本义原外的其他义原来计算词语相似度,以减少计算时间和提高计算精度;王小林[14]在原始基于知网方法的基础上,改进不同类别义原在词语相似度计算中所占权重的计算方法提高计算精度,通过义项词性判断降低相似性计算复杂度;张亮等[15]利用知网,从义项的主类义原、主类义原框架和义项特性描述三方面综合分析词语相似度,并从语义特征相似度和句法特征相似度两方面来描述词语相似度;田久乐等[16]提出基于同义词词林的词语相似度计算方法(CL_Sim),并通过人工测试、非人工测试以及与ZW_Sim方法进行比较,证明了方法的可行性;徐庆等[17]在此基础上对词语相似度计算公式进行改进,并将该方法应用于中文实体关系抽取,取得了较好的实验结果;郑红艳等[18]将词林与TF×IDF方法相结合,过滤同义词并对词语权重赋值进行文本特征提取,新的方法具有更好的特征提取结果。各位学者将基于知网与词林的相似性度量方法在参数与时间复杂度方面不断完善,使方法的准确性与时间效率都一定程度上有所提高。基于语义知识库的相似性度量方法均需要对语义知识库多次遍历,各位学者虽不同程度提高了方法的时间效率,但时间复杂度高的问题依然存在。
苏新春教授编写的《现代汉语分类词典》[19]与《同义词词林》在结构上具有相似性,但《现代汉语分类词典》对词语分类更细,词语间相似度只需通过两个词语编码进行计算比较,相较于ZW_Sim方法,不需要对词语相似度进行分层计算,时间复杂度大大降低。基于距离的语义相似度计算主要包括语义重合度(共同祖先节点数)、语义深度、语义密度、语义距离等4个方面的度量。多级分类体系使得基于分类词典的相似性度量结果可以直接反映两个词语在语义树中的重合度、深度与距离。在此基础上,本文提出一种基于现代汉语分类词典的文本相似性度量方法(Similarity measure based on Cidian, CD_Sim)。CD_Sim方法通过中科院研制出的汉语词法分析系统对待分析文档进行分词等一系列基本处理,统计词语与文档间的词频矩阵,结合TF×IDF算法构建词语文档的向量空间模型[20],对向量空间模型进行标准化处理、排序等操作实现对文档的特征提取。通过AP聚类[21]、Kmeans聚类[22]、谱聚类[23]3种聚类算法以及KNN分类[24]方法对方法计算结果进行检验分析。方法理论简单、易于应用,对降低同义词、同类词导致的误差有一定作用,在短文本相似度量应用中相较于基于统计学的方法可以降低度量误差,相较于基于知识库的方法简单易行。数值实验结果表明,CD_Sim方法在聚类与分类实验中均能取得较好的实验结果,证明了方法的可行性与度量效果。
1 相关理论基础 1.1 现代汉语分类词典我国现代汉语首部分类词典是《同义词词林》,按照词语的概义来对词语进行分类编排。但现在《同义词词林》一定程度上不能很好地反映当前语言现状。《现代汉语分类词典》在吸收前人成果的基础上,收录了8.3万条通用性词语,较《同义词词林》新增常用词2.9万条,按五级语义层编排,包含9个一级类,62个二级类,508个三级类,2 057个四级类,12 659个五级类。
《现代汉语分类词典》用5层编码代表分类词典的5层结构,例如“B03Cc04”是“灰浆”和“砂浆”的编码,示例编码中各层编码意义如表 1,表示“灰浆”和“砂浆”均是“具体物”类别下“材料”类别中“建筑材料”范畴内“水泥石灰沥青”小类中的“灰浆”类别。若两个词语各级编码均相同,则二者是同义词,相似度为1。
向量空间模型是当前使用较多的文本表示方法,向量空间矩阵为待分析文本样本词语-文档权重矩阵。假设待分析样本D中有n个文档dj(j=1, 2, …, n),用m个词语ti(i=1, 2, …, m)在文档中出现的频数组成的向量对一篇文档进行向量表示,根据词语在该文档中出现的概率及在整个样本中出现的概率对该特征词的重要性赋值权重wij,则样本D表示为
$ \mathit{\boldsymbol{D}}′= \left[ \begin{matrix} w_{11}& w_{12}& …& w_{1j}\\ w_{21}& w_{22}& …& w_{2j}\\ & & & \\ w_{i1}& w_{i2}& …& w_{ij} \end{matrix} \right] $ | (1) |
式中:wij表示第i个词语在第j篇文档中重要程度的权值。
词语权重的计算方法有多种,经典权重计算方法如TF×IDF算法:
$w_{ij}=\text{TF}_{ij}×\text{IDF}_i$ | (2) |
式中:TFij指特征词ti在文档dj中出现的次数pij占文档dj中总词数pj的比重:
$\text{TF}_{ij}=\frac{p_{ij}} {p_j}$ | (3) |
IDFi为逆文档频率,计算公式为
$\text{IDF}_i=\log(\frac N {n_i}) $ | (4) |
式中:N为样本中文档总数,ni为样本中出现过特征词ti的文档数。
2 文本相似度计算针对目前基于语义知识规则的文本相似性度量方法存在计算过程中多次遍历语义知识库导致方法时间复杂度高的局限性,提出了基于现代汉语分类词典的文本相似性度量方法(Similarity measure based on Cidian, CD_Sim)。方法侧重于词语相似度量方法的改进,最终应用于文本相似度量,且度量方法较基于统计学的方法可以一定程度降低同义词、同类词导致的误差,故方法效果通过文本相似度量结果进行对比衡量。方法以《现代汉语分类词典》作为语义知识库,以基于TF×IDF方法的向量空间模型作为文本关键词提取依据,文本相似性度量过程包括词语编码获取、词语相似度计算和文本相似度计算3个步骤。
2.1 词语相似度计算基于语义知识库的词语相似度通常通过计算义原相似度(ZW_Sim方法)或者词语编码相似度(CL_Sim方法)来计算。CD_Sim方法通过遍历分类词典,在分类词典中搜索关键词,用该关键词在分类词典中对应的编码替换关键词进行关键词相似度计算。样本D中各文档以关键词编码集的形式表示。
分类词典中每一个大类均可以看做一棵语义树,同一个节点下的叶子节点为同义词,且同义词编码相同。通常词语相似性通过其在语义树中的位置进行度量计算,包括语义密度、语义深度、语义重合度、语义距离四方面衡量。分类词典对所有词语均采用5级分类,即所有词语语义深度相同,语义重合度与语义距离可通过公式计算互换(见式(8)),故可仅取其中一种衡量方式进行计算(涉及时间复杂度,语义密度暂不考虑)。
定义 关键词A的编码为“a1a2a3a4a5”,关键词B的编码为“b1b2b3b4b5”,两关键词语义重合度计算公式:
$k_1=A\otimes B=\sum\limits^5 _{i=1}a_i\otimes b_i$ | (5) |
i=1时,
$a_i\otimes b_i= \left\{ \begin{array}{l}1,\ \ a_i=b_i\\ 0,\ \ a_i\ne b_i \end{array} \right. $ | (6) |
i>1时,
$a_i\otimes b_i= \left\{ \begin{array}{l} 1,\ \ a_i=b_i\ \text{and}\ a_{i-1}\otimes b_{i-1}=1\\ 0,\ \ a_i\ne b_i \end{array} \right. $ | (7) |
任意两个编码(假设两编码前三位相同,后两位不同)的语义重合度与语义距离在编码中可表示为式(8)形式:
$\begin{array}{r} &\begin{matrix} {}&{}&{}&\leftarrow &{} \\ \end{matrix} \\ &\left| \begin{matrix} {{a}_{1}} \\ \Updownarrow \\ {{b}_{1}} \\ \end{matrix} \right.\left| \begin{matrix} {{a}_{2}} \\ \Updownarrow \\ {{b}_{2}} \\ \end{matrix} \right.\left| \begin{matrix} {{a}_{3}} \\ \Updownarrow \\ {{b}_{3}} \\ \end{matrix} \right.\left| \begin{matrix} {{a}_{4}} \\ \downarrow \\ {{b}_{4}} \\ \end{matrix} \right.\left| \begin{matrix} {{a}_{5}} \\ {} \\ {{b}_{5}} \\ \end{matrix} \right. \\ &\begin{matrix} {}&{}&{}&\to &{} \\ \end{matrix} \\ \end{array}$ | (8) |
则根据a1
$ k_2= \left\{ \begin{array}{l} 9-2×k_1,\ \ k_1<5\\ 0,\ \ k_1=5 \end{array} \right. $ | (9) |
根据编码语义重合度和语义距离的计算公式,列出3个编码,分别求两两编码的语义重合度和语义距离,验证计算公式的正确性与可行性。二者换算示例如表 2。
考虑到语义重合度与语义距离可互相换算,CD_Sim方法中词语相似度均采用语义重合度进行计算,将语义重合度标准化公式:
$\text{Sim}(A,B)=\frac{k_1} 5 $ | (10) |
将关键词转化为编码可以更加直观表示关键词在词典中所属类别,在关键词相似度计算过程中直接通过编码计算,不需要多次访问语义知识库,提高了计算的时间效率。
2.2 相似度计算文本相似度计算建立在词语相似性度量之上,每个关键词与对比文档中关键词的距离取该关键词与对比文档中所有关键词相似度的最大值。设文档d1(t1, t2, …, tp)(p=1, 2, …, x)有x个关键词,文档d2(t1, t2, …, tq)(q=1, 2, …, y)有y个关键词,计算d1与d2中所有关键词的相似度矩阵
$ \mathbf{Sim}= \left[ \begin{matrix} s_{11}&s_{12}&…&s_{1q}\\ s_{21}&s_{22}&…&s_{2q}\\ &&&\\ s_{p1}&s_{p2}&…&s_{pq} \end{matrix} \right] $ | (11) |
式中:spq表示文档d1中的第p个关键词与文档d2中的第q个关键词的相似度。根据两文本关键词相似度矩阵可求文本相似度为
$ \text{SIM}(d_1,d_2)= \frac {\sum\limits^x _{p=1} \max(s_{p1},s_{p2},\cdots,s_{py}) + \sum\limits^y _{q=1}\max(s_{1q},s_{2q},\cdots,s_{xq})} {x+y} $ | (12) |
关键词与比较文本关键词相似度取该关键词与比较文本所有关键词相似度最大值,即对关键词相似度矩阵每行每列均取最大值,平均值即为两文本相似度。
基于现代汉语分类词典的文本相似性度量算法Z=CD_Sim(D):
输入 待分析样本D;
输出 样本D中所有文本间相似度集合Z。
1) 对样本D中所有文档进行分词、过滤停用词处理;
2) 对处理后的结果构建词语-文档频数矩阵,并结合TF×IDF方法构建样本的向量空间模型D′;
3) 根据向量空间模型D′对每篇文档按照一定的规则进行关键词提取;
4) for i=1:size(D, 1)-1
① for j=i+1:size(D, 1)
a)根据式(10) 计算文档i和文档j中所有关键词相似度,并按式(11) 将计算结果存入相似度矩阵Sim;
b)将相似度矩阵Sim按式(12) 进行计算,得到文档i和文档j的相似度SIM(di, dj);
② End
5) End
6) 得出样本D中所有文本间相似度集合Z。
根据方法介绍,CD_Sim方法与CL_Sim方法时间复杂度均为O(n2),ZW_Sim方法时间复杂度为O3(n2)。
3 仿真实验为检验CD_Sim方法的结果在应用中的准确性与时间效率,从搜狗分类语料库[25]中随机选择5类数据作为实验样本,采用中科院分词软件对样本进行预处理,通过TF×IDF方法对处理结果进行关键词提取,选择基于语义知识规则和基于统计两类词语相似性度量方法作为对比方法,用聚类与分类两种方法对相似性度量结果进行检验。文中文本相似性度量方法仿真实验对每篇文档取词语权值排序前15位词语作为文本关键词进行数值实验。
3.1 实验数据与实验设计实验语料数据选自搜狗实验室提供的搜狗分类语料库,该语料库包含了环境、计算机、交通、教育、经济、军事、体育、医药、艺术和政治10个类别文本文档。
数值实验选取了环境、交通、政治、教育、体育5个类别,每个类别随机选取20个文本文档共100个文本文档进行实验。实验中通过TF_IDF特征选择方法在100个文本中分别选择15个关键词进行相似性度量,其中,由于基于统计方法的特殊性,该类方法采用整个词语-文档权重矩阵进行相似度计算。
实验选择基于LSA的文本相似性度量方法、基于词林的文本相似性度量方法和基于知网的语义相似性度量方法作为对比方法,分别采用AP聚类、Kmeans聚类、谱聚类以及KNN分类对相似性度量结果进行检验。
3.2 聚类分析相似性度量结果的好坏直接影响文本聚类算法的精度,在已知文档类别的样本中,聚类精度可以反过来检验文本相似性度量结果的好坏。比较经典的基于距离矩阵的聚类算法有Kmeans,AP聚类及后来发展起来的谱聚类算法等。Kmeans与谱聚类算法均是给定聚类数目的聚类算法,时间复杂度低,聚类准确度高;在聚类数目未知的情况下,上述两种方法聚类结果会产生较大的偏差。AP聚类没有事先给定聚类数目,根据数据自身的特性进行聚类,聚类结果与聚类对象特征更加吻合。将相似性度量方法实验结果做聚类分析,数值实验结果如表 3。
数值实验中,聚类结果通过熵值和纯净度来度量。聚类结果熵值越低、纯净度越高,则聚类结果越好。NUM记录了将各相似性度量方法结果进行AP聚类所得聚类类别数。基于LSA的相似性度量算法,K值取[10, 20, …, 100]这10组数据值进行实验,每种聚类检验方法中均取熵值最小且纯净度最高的实验结果作为基于LSA的相似性度量算法的实验结果。
根据聚类实验结果分析,对4种相似性度量方法进行比较。AP聚类中,CD_Sim方法聚类结果最好,但数值实验样本仅包含5类文档,CD_Sim方法聚类数目达18种,存在一定的不合理性。在谱聚类算法中,CD_Sim方法聚类检验结果明显优于其他相似性度量方法,在4种相似性度量方法中,熵值最小,纯净度最高。Kmeans聚类算法中,CD_Sim方法实验结果纯净度较低、熵值较大,但结果仍优于其他相似性度量方法。
根据实验结果,对3种基于语义知识规则的相似性度量方法聚类实验结果进行比较分析,CD_Sim方法实验结果优于CL_Sim方法和ZW_Sim方法,聚类熵值最小、纯净度最高。
3.3 分类实验分类检验采用KNN算法进行分析,算法从每个类别样本中均选取一半作为已知类别样本,剩下一半作为实验集,检验结果以分类准确率进行度量,分类算法K值分别取[1, 2, …, 10],得出10组不同K值下的KNN分类结果并取平均值mean。采用不的相似性度量方法作为文本之间近似性度量方法, 结合KNN方法进行数值实验, 其实验结果如表 4所示。
数值实验结果表明,4种相似性度量方法中,CD_Sim方法分类实验结果最好,分类准确率最高,LSA_Sim方法实验结果次之,优于其他方法分类实验结果。3种基于语义知识规则的相似性度量方法分类检验结果进行比较,CD_Sim方法分类实验结果优于CL_Sim方法和ZW_Sim方法,分类准确度最高。
3.4 时间复杂度分析实验中方法的时间复杂度是除准确性外方法可行性的重要指标,实验过程中对各方法100个文档的相似度矩阵计算时间计时,结果如表 5。
根据表 5实验数据,4种文本相似性度量方法中,基于统计的文本相似性度量方法时间效率较高,基于语义知识规则的文本相似性度量方法较基于统计的方法时间效率较低。在3种基于语义知识规则的文本相似性度量方法中,CD_Sim方法时间效率最高,CL_Sim方法时间效率次之,ZW_Sim方法时间效率最低。CD_Sim方法遍历知识库的次数为样本中所有文档关键词的个数m,CL_Sim方法遍历知识库次数为(m+O(n2)),ZW_Sim方法遍历知识库次数为m。综合文本相似性度量方法时间复杂度与遍历知识库的次数,CD_Sim方法在3种基于语义知识规则的文本相似性度量方法中时间效率最高。
3.5 方差分析方法的稳定性也是方法可行性的重要指标。通常方差用来检验数据的稳定性,方差值越小,数据越稳定。分别对4种方法的4个实验结果准确率求方差,来验证4种相似性度量方法实验稳定性:
根据表 6,ZW_Sim方法实验结果最稳定,CD_Sim方法次之,LSA_Sim方法方差最大,实验结果稳定性相对较差。
综合聚类实验、分类实验、时间复杂度和稳定性,CD_Sim方法准确性优于对比方法,稳定性优于大部分对比方法,时间效率优于其他基于语义知识规则的对比方法,对比基于统计的方法时间效率仍有差距。
4 结束语文本相似性计算的关键在于关键词相似度计算,文本可以看作词语的集合,关键词根据其提取方法认为是不同筛选程度下文本中能够区别于其他文本的词语,各位学者的语义方法均是在不同程度关键词筛选结果的基础上进行。文章提出了基于分类词典的文本相似性度量方法,对样本进行分词、计算词语权重、提取文本关键词等一系列基本处理,定义基于关键词编码的词语相似度计算公式,构建文档关键词相似度矩阵,根据关键词相似度矩阵计算文档相似度。通过聚类与分类实验对相似性度量结果进行验证,验证了该方法的合理性。方法采用分类词典作为知识库,分类词典相较于词林和知网收录了更多的词语,词语编码匹配成功概率更高,对文本相似性度量影响较小;计算过程中仅在词语编码匹配一个阶段访问知识库,提高了基于语义知识库方法的时间效率;提出了新的词语相似度计算方法,计算结果优于其他基于语义知识库的方法。由于各领域的发展都会不断产生新的词语,文本实验过程中出现部分分类词典中未收录的词语,这部分词语不参加文本相似度计算,一定程度上会导致实验结果的误差;相较于基于统计的相似度计算方法,方法的时间效率有待提高。在保证方法准确度的前提下提高时间效率是CD_Sim方法未来的研究方向。
[1] |
李海林, 郭韧, 万校基. 基于特征矩阵的多元时间序列最小距离度量方法[J]. 智能系统学报, 2015, 10(3): 442-447. LI Hailin, GUO Ren, WAN Xiaoji. A minimum distance measurement method for a multivariate time series based on the feature matrix[J]. CAAI transactions on intelligent systems, 2015, 10(3): 442-447. (0) |
[2] | XU R, WUNSCH D. Survey of clustering algorithms[J]. IEEE transactions on neural networks, 2005, 16(3): 645-678. DOI:10.1109/TNN.2005.845141 (0) |
[3] | CHEN Wei, HUO Junge. Judicial determination of malicious forwarding cyber false information[J]. Journal of Chongqing university:social science edition, 2017(5): 103-113. (0) |
[4] | 苗传江. HNC(概念层次网络理论)引导[M]. 北京: 清华大学出版社, 2005. (0) |
[5] | PARK E K, RA D Y, JANG M G. Techniques for improving web retrieval effectiveness[J]. Information processing and management, 2005, 41(5): 1207-1223. DOI:10.1016/j.ipm.2004.08.002 (0) |
[6] | WordNet Documentation[EB/OL].[2010-10-27].http://wordnet.princeton.edu/wordnet/documentation/. (0) |
[7] | RICHARDSON S D, DOLAN W B.VANDERWENDE L. MindNet:Acquiring and structuring semantic information from text[C]//Proceeding of the 17th International Conference on Computer Linguistics Volume 2.Stroudsburg:Association for Computational Linguistics, 1998:1098-1102. (0) |
[8] | BAKER C F, FILLMORE C J, LOWE J B. The Berkeley framenet project[C]//Proceeding of the 36th Annual Meeting of the Association for Computational Linguistics and 17th International Conference on Computer Linguistics Volume 1. Stroudsburg:Association for Computational Linguistics, 1998:86-90. (0) |
[9] |
翟延东, 王康平. 一种基于WordNet的短文本语义相似性算法[J]. 电子学报, 2012, 40(3): 617-620. ZHAI Yandong, WANG Kangping. An algorithm for semantic similarity of short text based on WordNet[J]. Acta electronica sinica, 2012, 40(3): 617-620. (0) |
[10] | 梅家驹, 竺一鸣, 高蕴琦, 等. 同义词词林[M]. 上海: 上海辞书出版社, 1996. (0) |
[11] | 董振东, 董强. 知网简[EB/OL]. http://www.keenage.com. (0) |
[12] | 刘群, 李素建. 基于"知网"的词汇语义相似度计算[C]//第三届汉语词汇语义学研究会论文集. 台北, 中国, 2002: 59-76. (0) |
[13] |
林丽, 薛方, 任仲晟. 一种改进的基于知网的词语相似度计算方法[J]. 计算机应用, 2009, 29(1): 217-220. LIN Li, XUE Fang, REN Zhongsheng. Modified word similarity computation approach based on Hownet[J]. Journal of computer applications, 2009, 29(1): 217-220. (0) |
[14] |
王小林, 杨林, 王东. 基于知网的新词语相似度算法研究[J]. 情报科学, 2015, 33(2): 67-71. WANG Xiaolin, YANG Lin, WANG Dong. New word similarity algorithm research based on HowNet[J]. Information science, 2015, 33(2): 67-71. (0) |
[15] |
张亮, 尹存燕. 基于语义树的中文词语相似度计算与分析[J]. 中文信息学报, 2007, 21(3): 99-105. ZHANG Liang, YIN Cunyan. Chinese word similarity computing based on semantic tree[J]. Journal of Chinese information processing, 2007, 21(3): 99-105. (0) |
[16] |
田久乐, 赵蔚. 基于同义词词林的词语相似度计算方法[J]. 吉林大学学报:信息科学版, 2010, 26(6): 602-608. TIAN Jiule, ZHAO Wei. Word similarity algorithm based on Yongyici Cilin in Semantic Web adaptive learning system[J]. Journal of Jilin university:information science edition, 2010, 26(6): 602-608. (0) |
[17] |
徐庆, 段利国. 基于实体语义相似度的中文实体关系抽取[J]. 山东大学学报:工学版, 2015, 45(6): 7-14. XU Qing, DUAN Liguo. Chinese entity relation extraction based on entity semantic similarity[J]. Journal of Shandong university:engineering science, 2015, 45(6): 7-14. (0) |
[18] |
郑红艳, 张东站. 基于同义词词林的文本特征选择方法[J]. 厦门大学学报:自然科学版, 2012, 5(2): 200-203. ZHENG Hongyan, ZHANG Dongzhan. A text feature selection method based on TongYiCi CiLin[J]. Journal of Xiamen University:Natural Science, 2012, 5(2): 200-203. (0) |
[19] | 苏新春. 现代汉语分类词典[M]. 上海: 商务印书馆, 2013. (0) |
[20] | SALTON G. The transformation analysis and retrival of information by computer[M]. Wesley Reading Massach-uetts, 1989. (0) |
[21] | FREY B J, DUECK D. Clustering by passing messages between data points[J]. Science, 2007, 315(5814): 972-976. DOI:10.1126/science.1136800 (0) |
[22] | FORGY E W. Cluster analysis of multivariate data:efficiency versus interpretability of classifications[J]. Biometric, 1965, 21: 768-769. (0) |
[23] |
丁世飞, 贾洪杰. 基于自适应Nystrom采样的大数据谱聚类算法[J]. 软件学报, 2014, 25(9): 2037-2049. DING Shifei, JIA Hongjie. Spectral clustering algorit-hm based on adaptive nystrom sampling for big data analysis[J]. Journal of software, 2014, 25(9): 2037-2049. (0) |
[24] | WU Xindong, KUMAR V, QUINLAN J R, et al. Top 10 algorit-hms in data mining[J]. Knowledge and information systems, 2008, 14(1): 1-37. DOI:10.1007/s10115-007-0114-2 (0) |
[25] | 搜狗实验室语料[EB/OL]. http://www.sogou.com/labs/resource/list_yuliao.php. (0) |