林业科学  2013, Vol. 49 Issue (6): 122-128   PDF    
DOI: 10.11707/j.1001-7488.20130617
0

文章信息

刘子豪, 汪杭军
Liu Zihao, Wang Hangjun
基于PCA+FisherTrees特征融合的木材识别
Wood Identification Based on Feature Fusion of PCA and FisherTrees
林业科学, 2013, 49(6): 122-128
Scientia Silvae Sinicae, 2013, 49(6): 122-128.
DOI: 10.11707/j.1001-7488.20130617

文章历史

收稿日期:2012-08-06
修回日期:2012-09-24

作者相关文章

刘子豪
汪杭军

基于PCA+FisherTrees特征融合的木材识别
刘子豪1, 汪杭军2    
1. 浙江农林大学信息工程学院 临安 311300;
2. 浙江农林大学天目学院 临安 311300
摘要:提出一种高效的基于PCA和FisherTrees特征融合的木材识别方法,首先把训练样本分别投影到PCA和FisherTrees空间,得到PCA特征和FisherTrees特征; 然后通过算术均值、交换转置均值和加权均值进行特征融合,将融合后的特征应用不同距离函数的分类器进行分类。结果表明: 通过交换转置均值融合PCA和FisherTrees特征,然后使用余弦角分类器能获得最好的识别效果。
关键词特征融合    主成分分析(PCA)    费舍尔树(FisherTrees)    木材识别    
Wood Identification Based on Feature Fusion of PCA and FisherTrees
Liu Zihao1, Wang Hangjun2     
1. School of Information Engineering, Zhejiang A & F University Lin'an 311300;
2. Tianmu College of Zhejiang A & F University Lin'an 311300
Abstract: A new efficient method based on feature fusion of PCA and FisherTrees for wood identification was proposed in this paper. Firstly, the training samples were projected into PCA and FisherTrees space respectively to form the PCA and FisherTrees features, then the two features were fused through three ways, i.e. arithmetic mean, swapping transposition mean and weighting mean. Finally, the feature fusion was applied to classify with different distance functions. The experimental results showed that the new method had a higher recognition rate and was more efficient compared with the tradition subspace methods. The best identification result could be obtained by features fusion of PCA and FisherTrees with swapping transposition mean and by the cosine distance function classifier.
Key words: feature fusion    principle component analysis(PCA)    FisherTrees    wood identification    

近些年来,利用计算机辅助技术对木材图像进行智能识别的研究逐渐成为人们关注的焦点,大量学者和研究人员参与到此项研究工作中来。黄慧(2006)采用数学形态学分割算法研究了阔叶材中的管孔,并提取了弦切面上木射线的特征; 孙伶君等(2011)利用LBP 分块特征提取技术获取了木材体视图特征,将获得的分块特征导入3种距离函数分类器,得出了较好的分类效果; 陆跃辉等(2012)首次把Bag of Words算法引入木材识别领域,利用图像分割的思想对木材图像进行分块,然后逐块识别,并取得了很高的识别率; 王金满(1998)王金满等(1998)研究了计算机视觉分析在木材解剖构造中的应用,并利用计算机视觉技术对长白落叶松(Larix olgensis)人工林木材解剖特征及其生长轮材性变异规律进行了分析,之后又探讨了应用FFT变换图像处理木材解剖构造的图像处理方法。虽然以上方法在提取木材图像的语义特征或者对木材图像进行分割上取得了一些不错的效果,可以减少图像的灰度级关联度,减少计算量,但是这些方法会损失一定灰度的空间依赖信息,在某种程度上会破坏灰度图像所具有的连续性纹理特征。因此,本文采用一种对图像整体的纹理特征进行提取的融合算法———基于K-L变换的主成分分析(PCA)和费舍尔树(FisherTrees)融合的算法提取木材图像特征来解决木材图像识别的问题。

PCA方法(Kirby et al.,1990)是特征提取方法之一,它是一种统计学方法,在信号处理、模式识别、数字图像处理等领域已经得到了广泛的应用。“特征树”(EigenTrees)方法(汪杭军等,2011)是从主成分分析导出的一种木材识别和描述技术,它将包含木材的图像区域看做一随机向量,采用K-L变换得到一组正交K-L基,其中较大特征值的基具有与木材相似的形状,即为“特征树”。利用这些基的线性组合可以描述、表达和逼近木材图像,可进行木材图像识别与重构。近年来,基于图像的投影判别分析方法受到了众多研究者的重视,一系列相关的理论和方法(Yang et al.,2005; Kong et al.,2005; Li et al.,2005; Xiong et al.,2005; Jing et al.,2006)相继提出,也为线性子空间特征提取方法提供了一种新的思路。PCA方法也有了一些新的改进(Bao et al.,2012; Good et al.,2010; Xu et al.,2012)。

根据木材微观图像的特点,利用PCA方法对整体纹理特征进行提取,有利于表达木材图像原始特征的完整性。由于PCA算法侧重于准确表达原始模式特征,而没有有效利用样本的类别信息,所以用PCA算法得到的特征是最有表现力的特征,但并不是最有辨别力的特征。本文的融合算法把训练样本分别投影到PCA和FisherTrees空间,得出它们的单独特征,通过算术均值、交换转置均值和加权均值的方法进行特征融合,再把训练样本和测试样本投影到该融合空间,用余弦分类器进行分类,得到识别效果。

1 材料与方法 1.1 试验材料

试验用木材样本取自浙江农林大学木材标本馆。选取日本香柏(Thuja st and ishii)、黄山松(Pinus taiwanensis)、日本扁柏(Chamaecyparis obtusa)、棘柏(Juniperus formosana)、马尾松(Pinus massoniana)、水杉(Metasequoia glyptostroboides)、江南油杉(Keteleeria cyclolopis)和雪松(Cedrus deodara)8种针叶材样本,统一采用奥林巴斯OLYMPUS BX51显微镜和DP70数码显微成像系统采集显微图像,显微图像按照几种不同的截取区域可以将它们分为早晚材过渡(截取区域落在早晚材过渡部分)、早材(截取区域落在早材部分)和随机(截取区域相比前面没有特殊要求),由于早晚材过渡区域的特征比早材区域和随机区域的特征明显(汪杭军等,2011),因此本文算法选用早晚材过渡区域的木材显微图像且截取100×100的子区域,要求截取区域尽量不靠近轮界线,可含少量木射线,但不含断裂、树脂道等其他组织或较大杂质。按照这种分割方式,分别对每一树种在不同位置截取12个样本。由于切片颜色是由切片制作时染色所致,并非木材本身的特征,将上一步获得的100 × 100像素子区域图像转换为256级。图 1显示了水杉按照3种分割方式最终得到的灰度图效果。

图 1 水杉3种分割方式截取效果 Fig. 1 Results of Metasequoia glyptostroboides under three divided ways

由于采用小样本,试验使用留一交叉方式进行检验,它的好处在于每次试验的误差对于实际中的测试误差来说几乎是无偏的,而且最终结果是精确的。留一交叉验证具体做法是: 选取样本中的一个作为测试样本,其余都作为训练样本,这样重复进行直至每个样本恰好被作为一次测试样本为止。本试验共8个类,每个类包含12个样本,试验要进行96次。所有结果取平均值就是最后得到的识别率,而对于图像重构的试验,只需从这96张木材图像中任选一张图像进行重建即可。

1.2 FisherTrees特征提取

FisherTrees特征是一个用来提取木材微观图像特征的新方法。特征提取的过程如图 2。该方法先将训练图像通过PCA进行降维,然后对降维后的图像特征应用LDA训练一个最有辨别力的分类器,将二者生成的子空间融合生成FisherTrees融合子空间。FisherTrees方法克服了直接使用LDA带来的大矩阵和类内散布矩阵奇异的问题,且由FisherTrees方法生成特征子空间维数要比用EigenTrees方法生成特征子空间的维数小(Mika et al.,1999; Baudat et al.,2000)。

图 2 FisherTrees特征提取过程 Fig. 2 Process of FisherTrees features extraction

假设总体训练集的样本数为M个,训练数据集为Γj(j=1,…,M),共有C个类别,每类共有Ni个训练样本,则有$\sum\limits_{i = 1}^c {{N_i} = M} $。

步骤1: EigenTrees子空间的计算

总体训练样本均值:$\mu = \frac{1}{M}\sum\limits_{i = 1}^M {{\Gamma _j}} $,由协方差矩阵$C = \frac{1}{{\left({M - 1} \right)}}\sum\limits_{i = 1}^M {\left({{\Gamma _j} - \mu } \right)} {\left({{\Gamma _j} - \mu } \right)^T}$的正交特征向量就是组成木材图像空间的基向量,此时生成的协方差矩阵是维数相当大的矩阵,利用奇异值分解对C进行变换,可以降低维数。对得到特征值由大到小排列: λ1λ2≥…≥λr,其对应的特征向量为u1u2,…,ur,保留那些较大特征值所对应的特征向量,张成一个“特征树”空间:

$ {U_P} = \left({{u_1},{u_2},\cdots,{u_t}} \right),\left({t < r} \right)。 $ (1)

这样每一幅木材微观图像都可以投影到由(1)张成的子空间,因此,每一幅木材图像对应于子空间中的一点。公式(1)可以计算一个样本Γi在该特征空间上的投影系数:

$ {W_i} = U_P^T \times \left({{\Gamma _i} - \mu } \right)。 $ (2)

这样任何一幅图像都可以投影到子空间(1)来对应于该子空间的一个点,利用公式(2)对得到的坐标系数单位正交化可得到一组作为木材图像识别依据的PCA子空间标准坐标系数:

$ {W_{{\rm{pca}}}} = \left({{W_1},{W_2},\cdots,{W_t}} \right)。 $ (3)

步骤2: 计算样本与类中心偏离值和类中心与总体样本偏离值

其中样本与类中心偏离值为${m_{ij}} = \sum\limits_{i = 1}^C {\sum\limits_{j - 1}^M {\left({{\Gamma _j} - {\mu _i}} \right)} } $,类中心与总体样本偏离值为${m_i} = \sum\limits_{i = 1}^C {\left({{\mu _i} - \mu } \right)} $。

步骤3: 将总体训练样本均值、样本与类中心偏离值和类中心与总体样本偏离值投影到公式(1)生成的空间中

投影后的总体样本均值: $\mathop \mu \limits^ \sim = W_{{\rm{PCA}}}^T\mu $,样本与类中心偏离值: ${\mathop m\limits^ \sim _{ij}} = W_{{\rm{PCA}}}^T{m_{ij}}$,类中心与总体样本偏离值: ${\mathop m\limits^ \sim _{ij}} = W_{{\rm{PCA}}}^T{m_i}$。

步骤4: 利用步骤3投影后的值计算总体类内离散度矩阵和类间离散度矩阵

类内离散度矩阵:

$ {S_{\rm{W}}} = \sum\limits_{i = 1}^C {\sum\limits_{j = 1}^M {\left({{{\mathop m\limits^ \sim }_{ij}} - {{\mathop m\limits^ \sim }_i}} \right)} } {\left({{{\mathop m\limits^ \sim }_{ij}} - {{\mathop m\limits^ \sim }_i}} \right)^T}; $ (4)

类间离散度矩阵:

$ {S_{\rm{b}}} = \sum\limits_{i = 1}^C {{N_i}\left({{{\mathop m\limits^ \sim }_i} - \mathop \mu \limits^ \sim } \right)} {\left({{{\mathop m\limits^ \sim }_i} - \mathop \mu \limits^ \sim } \right)^T}。 $ (5)

式中: Ni表示每类训练样本占每类总体样本的百分比。

步骤5: 利用SbU1=λSwU1计算类内离散度矩阵和类间离散度矩阵广义特征值和特征向量,对求解出的特征值从大到小依次排列,保留前C-1个最大的特征值所对应的特征向量,即为最佳的投影向量,记为:

$ {U_1} = \left({{u_1},{u_2},\cdots,{u_{c - 1}}} \right)。 $ (6)

步骤6: 每个训练样本都可以投影到由(6)张成的FisherTrees子空间,每个样本对应于该子空间中的一点。公式(6)可以计算一个样本Γi在该特征空间上的投影系数:

$ {W_j} = U_1^T\left({{\Gamma _j} - \mathop \mu \limits^ \sim } \right)。 $ (7)

这样任何一幅图像都可以投影到子空间(1)来对应于该子空间的一个点,利用公式(7)对得到的坐标系数单位正交化可得到一组作为木材图像识别依据的FisherTrees子空间标准坐标系数:

$ {W_{LDA}} = \left({{W_1},{W_2},\cdots,{W_{c - 1}}} \right)。 $ (8)

步骤7: 融合PCA和FisherTrees子空间,生成最优投影FisherTrees子空间,记为:

$ {W_{{\rm{FisherTrees}}}}{\rm{ = }}{W_{{\rm{pca}}}}{U_1}。 $ (9)
1.3 基于PCA+FisherTrees融合算法

考虑到PCA和FisherTrees各自的特点,将二者进行有效融合可以在一定程度上提高分类器的性能。融合的目的主要是克服单个特征提取方法的不足,利用彼此间的互补性进一步提高识别方法的正确率。本文的算法是分别计算EigenTrees子空间和FisherTrees子空间,将二者子空间的维数通过适当的维数变换,利用算术均值、交换转置均值和加权均值的方法对二者进行有效融合,融合算法步骤如图 3

图 3 PCA+FisherTrees融合算法 Fig. 3 Picture of PCA + FisherTrees fusion algorithm chart
1.3.1 PCA+FisherTrees融合策略

将PCA和Fishertrees方法进行融合的方式有3种: 算术均值融合、交换转置均值融合和加权均值融合,3种融合方式均要在满足矩阵运算法则的前提下进行。

1)算术均值融合根据公式(3)和(9),PCA和FisherTrees融合空间表达式为:

$ \left({{W_{{\rm{PCA}}}} + {W_{{\rm{FisherTrees}}}}} \right)/2。 $ (10)

2)交换转置均值融合交换转置均值定义为:(A'B+B'A)/2,其中AB维数是m×n,且均是非奇异矩阵,m表示矩阵的行数,n表示矩阵的列数。利用公式(1)和(4),则PCA和FisherTrees融合空间表达式为:

$ \left({W_{{\rm{PCA}}}^T{W_{{\rm{FisherTrees }}}} + W_{{\rm{FisherTrees }}}^T{W_{{\rm{PCA}}}}} \right)/2。 $ (11)

3)加权均值融合根据公式(1)和(4),PCA和FisherTrees加权均值融合空间表达式为:

$ \beta {W_{{\rm{PCA}}}} + \left({1 - \beta } \right){W_{{\rm{FisherTrees}}}}。 $ (12)

式中: β表示加权均值的融合系数,β∈[0,1],当β=0,该融合子空间就退化FisherTrees子空间; 当β=1时,该融合子空间就退化为EigenTrees子空间; 当β=0.5时,该融合子空间就是算术均值融合子空间。

1.3.2 特征融合算法步骤

步骤1: 根据矩阵运算法则,利用公式(10),(11),(12)3种均值融合的方式来组合WPCAWFisherTrees,3个融合特征子空间分别记为Wopt1Wopt2Wopt3

步骤2: 将训练数据集分别投影到这3个融合子空间中,计算训练数据集在各自融合空间的投影系数,分别记为Z1Z2Z3。对于任意一组训练数据集向量Γj(j=1,…,M),其均值为μ,利用公式(10),(11),(12),则在算术均值融合空间、交换转置均值融合空间、加权均值融合空间的投影系数分别为:

$ \begin{array}{c} {Z_1} = {{W'}_{{\rm{opt}}1}}\left({{\Gamma _j} - \mu } \right)= \ {\left[ {\left({{W_{{\rm{PCA}}}} + {W_{{\rm{FisherTrees}}}}} \right)/2} \right]^\prime }\left({{\Gamma _j} - \mu } \right); \end{array} $ (13)
$ \begin{array}{c} {Z_2} = {{W'}_{{\rm{opt}}2}}\left({\Gamma - \mu } \right)= \left[ {\left({W_{{\rm{PCA}}}^T{W_{{\rm{FisherTrees}}}} + } \right.} \right.\ {\left.{\left.{{W_{{\rm{PCA}}}}{W_{{\rm{FisherTrees}}}}} \right)/2} \right]^\prime }\left({{\Gamma _j}\mu } \right); \end{array} $ (14)
$ \begin{array}{l} {Z_3} = {{W'}_{{\rm{opt}}3}}\left({{\Gamma _j} - \mu } \right)= \ {\left[ {\beta {W_{{\rm{PCA}}}} + \left({1 - \beta } \right){W_{{\rm{FisherTrees}}}}} \right]^\prime }\left({{\Gamma _j} - \mu } \right)。 \end{array} $ (15)

式中: j=1,2,…,M

由此,整个训练数据集在3个融合空间的投影系数分别为:

$ {Z_{1j}} = \left({{Z_{11}},{Z_{12}},\cdots,{Z_{1M}}} \right); $ (16)
$ {Z_{2j}} = \left({{Z_{21}},{Z_{22}},\cdots,{Z_{2M}}} \right); $ (17)
$ {Z_{3j}} = \left({{Z_{31}},{Z_{32}},\cdots,{Z_{3M}}} \right)。 $ (18)

式中: j=1,2,…,M

步骤3: 对于任意一组测试数据集向量Qi(i =1,2,…,K),将测试数据集分别投影到这3个融合空间中,重复步骤2,计算测试数据集在各自融合空间的投影系数,分别记为:

${Q_{1i}},{Q_{2i}},{Q_{3i}}\left({i = 1,2,\cdots,K} \right)。$

步骤4: 利用欧式、余弦角和马氏3个不同的距离函数对训练集和测试集的投影系数Z1jQ1iZ2jQ2iZ3jQ3i进行距离分类,得出分类结果。

步骤5: 通过最近邻对上述的分类结果逐一识别,得出树种及识别率,并对获得的结果进行统计分析。

2 结果与分析 2.1 PCA和FisherTrees重构能力对比

首先把样本图像投影到特征空间上,利用公式(1),(3)和(6),(8)分别计算PCA子空间和FisherTrees子空间的坐标系数,选用一部分系数与特征向量进行原始图片的重建。对于PCA子空间,重构后的图像可通过公式IPCA=μ+Up(1: tWPCA(1: t)计算; 对于FisherTrees子空间,重构后的图像可通过公式IFisherTrees=$\mathop \mu \limits^ \sim $+Ul(1: tWFisherTrees(1: t)计算,其中1: t表示取前t个特征向量参与图像的重建,重建图像结果如图 4

图 4 木材图像重建 Fig. 4 Wood picture reconstruction P1,P2,P3 是用PCA 重建的效果,F1,F2,F3是用FisherTrees重建的效果,重建图像的清晰程度与t 的数量呈正比。
P1, P2, P3 is reconstruction effect using PCA, F1, F2, F3 is reconstruction effect using FisherTrees, the clarity level of reconstruction image is proportional to the number of t

图 4可以看出,用EigenTrees子空间对木材图像进行重建的效果要明显好于用FisherTrees子空间重建的效果(重建图像的清晰程度与特征向量的数量呈正相关)。因为PCA在表达图像特征的同时可以保留住图像最本质的信息,表征图像特征的能力比FisherTrees方法强,而FisherTrees方法注重的是分类能力。设训练样本数为N,共有C个类别,训练样本经过PCA变换之后,生成的特征树空间的维数降至N-C维,然后再把这N-C维的空间应用在由Swets等(1996)定义的标准LDA方法中去,维数就可以降至C-1维(Belhumeour et al.,1997)。这样,连续2次的空间降维,降低了空间的维数,便于将高维的图像降低成更低的空间,方便计算。用PCA方法生成N-C个EigenTrees特征,而FisherTrees方法生成的有C-1个FisherTrees,由此可见,EigenTrees的特征数量大于FisherTrees,由于原始图像是这些特征图像的线性组合,特征图像越多,对于重构原始图像的能力就越强。

2.2 不同特征融合方式的比较

利用上述的方法和计算步骤,可以得出PCA,FisherTrees和PCA+FisherTrees的3种不同融合方式的识别率和运行时间,具体如表 1所示。

表 1 本文算法在3种分类器中识别率和运行时间的比较 Tab.1 Comparison of recognition rates and time results among three classifiers of the article algorithm

表 1可以看出,PCA+FisherTrees方法无论是识别率还是运行时间都优于单独使用PCA或FisherTrees方法,其中用交换转置均值融合PCA与FisherTrees方法在余弦角分类器中得到的识别率最高,达到96.01%,识别时间也最短,为0.394 5 s。PCA方法在3种分类器中的识别率始终维持在50%左右,这是因为PCA过于注重特征提取的过程,而忽略了样本的类别信息,而在构造PCA子空间的过程中,分配给各维的权重不同,它们的权重按照训练样本的总体散布矩阵的特征值从大到小排列,但对于特征各维对距离的贡献却是相同的,它们被认为具有相同的权值。从表 1中可以看出余弦角距离相比于欧式距离和马氏距离具有较好的分类效果,三者都是基于相似性的分类器,PCA和FisherTrees算法是基于欧式距离提出的,在寻找最优表示基时,它们用欧式距离衡量原数据与由标准正交基线性组合而成的新数据的产生误差,故欧式距离体现出明显的优势。近几年来的研究表明余弦角距离对离群数据点较为鲁棒(殷俊等,2011),而欧式距离相对敏感,但是欧式距离过程简洁,计算速度更快速。

对于加权均值融合PCA和FisherTrees时,对融合系数分析发现,当β=0.6时,余弦角分类器的分类性能达到最佳,为94.44%; 而对于欧式距离,当β=0.5时,它的分类性能达到最佳。融合系数与识别率的关系如图 5

图 5 加权均值融合系数对识别率的影响 Fig. 5 Influence of the recognition rate on weighted mean fusion coefficient

从运行时间上来看,PCA算法的平均时间最长,FisherTrees方法平均运行时间相对较短,但是融合算法所用的平均时间是最短的,空间复杂度和计算复杂度高于PCA和FisherTrees方法,对于加权均值融合算法,当取不同的融合系数时对应的时间关系如图 6

图 6 加权均值融合系数对运行时间的影响 Fig. 6 Influence of the run time on weighted mean fusion coefficient

图 6可以看出在欧式距离分类器中,当取融合系数β=0.5时,加权融合算法的运行速度最快;在马氏分类器中,当取融合系数β=0.9时,加权融合算法的运行速度最快; 在余弦角分类器中,当取融合系数β=0.5时,加权融合算法的运行速度最快。从图 6还可以看出,在这3种分类器中,马氏距离分类的速度最快,因为马氏距离不受量纲的影响,两点之间的马氏距离与原始数据的测量单位无关,即与测量尺度无关,由标准化数据和中心化数据(即原始数据与均值之差)计算出的两点之间的马氏距离相同。在这一点上大大减少了计算的复杂度,从而有利于快速提高算法的识别速度。

3 结论

本文提出了一种新的基于PCA+FisherTrees的木材识别算法,该算法克服了单独使用PCA或FisherTrees方法对木材识别上的缺陷。通过提取PCA特征和FisherTrees特征,生成特征树和费舍尔树,在形成新的子空间中,采用留一交叉验证,基于KNN分类器进行了一些试验,得到如下结论:

1)PCA方法重构图像能力强于FisherTrees方法重构图像的能力。

2)融合特征的识别效果好于单独特征的识别效果,而且将EigenTrees子空间和FisherTrees子空间利用交换转置均值融合的方式得到的识别效果最好且系统消耗时间最短,在加权均值融合过程中,融合系数的选择对于识别率的提高颇为重要,当融合系数为0.6时,分类器的性能最佳。

3)采用不同的距离函数作为对象相似性度量对木材的识别影响较大,从试验所采用的3种距离函数来看,余弦角分类器的结果最好,但是对于如何设计距离函数来处理大型的木材数据库是今后所要研究的主要方向。

综上所述,本文通过部分木材微观的纹理结构来探究木材识别的可能性,为其他模式识别方法引入木材识别领域提出了一条捷径,也为今后更多的机器学习和模式识别在其他领域中的成功运用提供了便捷途径。

对于木材微观图像,它是通过显微镜观察和截取的,截取的过程通常要对其中出现的含断裂、树脂道等其他组织或较大的杂质进行剔除,这过程是在人工的情况下进行的,虽然从肉眼来看包含了图像的大部分信息,但是会不会一些重要纹理统计信息仅仅用肉眼发现不了,必须通过某种方式处理才可以显现? 又会不会在去除杂质的过程中也把图像重要的纹理信息也过滤掉了呢? 这些都需要今后进一步研究。

参考文献(References)
[1] 黄慧. 2006. 基于木材组织构造的数字图像处理系统研究.南京: 南京林业大学硕士学位论文.(1)
[2] 陆跃辉,徐小荣. 2012.基于Bag of Words的木材识别研究.图形图像,2(3): 19-22.(1)
[3] 孙伶君,汪杭军,祁亨年. 2011. 基于分块 LBP 的树种识别研究.北京林业大学学报, 33(4): 107-112.(1)
[4] 王金满.1998.木质材料计算机视觉分析.哈尔滨: 东北林业大学出版社.(1)
[5] 王金满,曲艳杰,李坚.1998.傅立叶变换图像处理方法在木材解剖特征研究中的应用.四川农业大学学报,16(1): 176-180.(1)
[6] 汪杭军,汪碧辉. 2011. 一种新的针叶材自动识别方法.林业科学, 47(10):141-145.(2)
[7] 殷俊,周静波,金忠.2011.基于余弦角距离的主成分分析与核主成分分析. 计算机工程与应用, 47(3):9-12.(1)
[8] Bao B K, Liu G, Xu C. 2012. Inductive robust principal component analysis. IEEE Transactions on Image Processing,21 (8): 3794-3800.(1)
[9] Baudat G,Anouar F.2000.Generalized discriminant analysis using a kernel approach.Neural Computation,12(10): 2385-2404.(1)
[10] Belhumeour P N, Hespanha J P, Kriegman D J. 1997. Eigenfaces vs. fisherfaces: recognition using class specific linear projection.Pattern Analysis and Machine Intelligence,19(7): 711-720.(1)
[11] Good R P, Kost D, Cherry G A, et al. 2010. Introducing a unified PCA algorithm for model size reduction.IEEE Transactions on Semiconductor Manufacturing, 23 (2): 201-209.(1)
[12] Jing X Y,Wong H S,Zhang D.2006.Face recognition based on 2D fisherface approach.Pattern Recognition,39(4): 707-710.(1)
[13] Kirby M,Sirovich L. 1990. Application of the Karhunen-Loeve procedure for the characterization of human faces.IEEE Transactions on Pattern Analysis and Machine Intelligence, 12(1): 103-108.(1)
[14] Kong H,Wang L,Teoh E K,et al.2005.A framework of 2D Fisher discriminant analysis: application to face recognition with small number of training samples.Proeeedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition,San Diego,CA,USA, 1083-1088.(1)
[15] Li M,Yuan B.2005.2D-LDA: a statistical linear discriminant analysis for image matrix.Pattern Recognition Letters, 26(5): 527-532.(1)
[16] Mika S,Ratsch G,Weston J,et al.1999.Fisher discriminant analysis with kernels.Proceedings of the Conference on Neural Networks for Signal Processing,Washington D C,USA,41-48.(1)
[17] Swets D L, Weng J J. 1996. Using discriminant eigenfeatures for image retrieval.IEEE Transaction on Pattern Analysis and Machine Intelligence, 18 (8): 831-836.(1)
[18] Xiong H,Swamy M N S,Ahmad M O.2005.TWO-dimensional FLD for face recognition.Pattern Recognition, 38(7): 1121-1124.(1)
[19] Xu H, Caramanis C, Sanghavi S. 2012. Robust PCA via outlier pursuit.IEEE Transactions on Information Theroy, 58 (5): 3047-3064.(1)
[20] Yang J,Zhang D,Yong X,et al.2005.Two-dimensional discriminant transform for face recognition.Pattern Recognition,38(7): 1125-1129.(1)