文章信息
- 江泽慧, 姜笑梅, 周玉成, 安源, 赵亮, 井元伟.
- Jiang Zehui, Jiang Xiaomei, Zhou Yucheng, An Yuan, Zhao Liang, Jing Yuanwei.
- 杉木微观结构与其品质特性关系模型的一类神经网络建模方法
- A Kind of NN Modeling Method of Relational Model of Chinese Fir Microstructure and Its Material Characteristic
- 林业科学, 2005, 41(4): 133-139.
- Scientia Silvae Sinicae, 2005, 41(4): 133-139.
-
文章历史
- 收稿日期:2004-12-10
-
作者相关文章
2. 东北大学 沈阳 110004
2. Northeastern University Shenyang 110004
随着木材在现代生产、生活中的愈加广泛和高效应用,业界急需根据木材内部的结构等相关参数去确定木材的外部特征,即木材的物理力学性能(Melo et al., 2000)。除了传统的试验方法,也可以基于木材性质及形成机理的相关研究得出木材有关参数间的映射关系,从而推出木材的外部特征。这类研究随着研究学者对于木材结构定向培育(Slu,2004)的深入认识而具有不可忽视的研究价值(Slu,2004;Tian et al., 1995a;1995b)。如果有了从木材内部结构参数到木材物理力学特性的明确映射关系,其成果将为树木优质种质资源培育、树木转基因工程、定向培育材质改良的树木新品种等提供强有力的科学依据及研究方法。
木材内部结构及其物理力学特性模型,作为一种真正意义的复杂系统(周玉成等,2003),其解剖、物理和力学性质之间存在紧密联系(刘晓丽等,2004),且不同树种存在不同程度的差异。然而,传统的木材研究只局限于某几个特定微观结构参数与材性的关系,且此类关系的精确模型并不多见。事实上,木材作为一个有机的整体,不同参数之间都存在着未知的非线性关系(周玉成等,1998),即每个微观结构参数都会对其品质特性产生不同程度的影响,难于跟踪和预测(周玉成等,2003)。Tian等(1995a;1995b)给出了一种松树的基本密度和生长年轮的关系模型,通过对树木生长年轮的深入剖析,将木材基本密度变异表现在木材内部不同部位上。这实际给出的是一类木材内部结构到木材的一个物理性质——基本密度的映射关系。文中分别建立形如式(1)和(2)的有理式数学模型来表达生长年轮与基本密度和生长部位与基本密度之间的关系。
![]() |
(1) |
![]() |
(2) |
上述方法为了获得较高精度做出了形式相同、参数各异的多段分段函数,这虽然真实反映了木材结构与基本密度的二元关系,却因函数描述的局限性和函数式对样本的过度依赖性使这种建模模型难以拓展。如要依据这种方法获得能反应木材各个材质参数的多组二元关系模型,其样本采集和建模工作量都将非常大。
本文给出了一类准确、高效的神经网络建模方法,这种建模方法突破了寻求单一的二元关系的传统模式,只要依据表 1的一组样本,即可实现杉木(Cunninghamia lanceolata)18个输入因子到7个输出指标的高精度映射(逼近精度达96.3%以上),并能从所有输入因子中分析出关键变量组合,给出部分输入因子组合到物理力学性质的映射;同时,在总模型基础上建立的子模型又能很好地反应杉木从心材到边材的材性变异。
![]() |
可以说,通过把神经网络建模方法引进木材研究领域,将为木材的诸多复杂研究课题提供一系列便捷、高效的解决方案(张东妍等,2003)。
1 问题定义本文的研究旨在揭示杉木的18个微观结构参数与7个杉木物理力学特性参数之间的关系。试验样本的描述如表 1所示。
2 建模理论依据 2.1 神经网络概述神经网络起源于1943年,历经2次发展热潮的锤炼,目前作为一种成熟的算法应用于各个领域(闻新等,2003)。神经网络是一种黑箱建模工具,即仅借助于输入和输出数据,透过数学技巧来决定系统的模式,它由大量神经元互连而成,具有较强的适应和学习能力,是一个真正的多输入多输出系统。
2.2 径向基神经网络本文采用的神经网络属于前馈网络,作为典型的前馈网络BP用于函数逼近时,权值调节采用的是负梯度下降法,这种调节权值的方法有局限性,即存在收敛速度慢和局部极小等缺点。而径向基函数网络无论在逼近能力、分类能力和学习速度等方面均优于BP网络。
2.2.1 径向基函数(RBF)径向基传递函数曲线如图 1所示,函数形式如式(3)所示。
![]() |
图 1 径向基函数曲线 Fig. 1 Graph of radial basis function |
![]() |
(3) |
径向基神经元的结构(图 2)与其余神经元结构迥异,其神经元传递函数的输入是输入p和权值w的向量距离与阈值b的乘积,传递函数的形式为式(3)(高隽,2003)。
![]() |
图 2 径向基神经元 Fig. 2 Radial basis neuron |
如图 2所示,径向基函数当输入为0时达到最大值1。随着w和p距离的减小,输出增加。因此,径向基神经元像一个观测器,当输入p和它的权向量p完全一致时,将输出1。阈值b用来调整径向基神经元的敏感度。例如,如果一个神经元的阈值为0.1,对于离权向量的向量距离为8.326 (0.832 6/b)的任意输入向量p,其输出将为0.5。其中,uj是第j个隐层节点的输出,X=(x1,x2,K,xn)T是输入样本,Cj是高斯函数的中心值,δj是标准化常数,Nh是隐层节点数。其隐含层节点中的作用函数(核函数)对输入信号将在局部产生响应,也就是说,当输入信号靠近核函数的中央范围时,隐层节点将产生较大的输出。由此可看出,这种网络具有局部逼近能力,所以径向基函数网络也成为局部感知场网络。因此,节点的输出范围在0和1之间,如果一个神经元的权向量与其输入向量相等(转置),其带权输入将为0,当其网络输入为0,则输出为1,且输入样本愈靠近节点的中心,输出值愈大(张青贵,2004)。
2.2.3 广义回归神经网络RBF网络把神经网络设计问题看作是高维空间的曲线拟合,于是,学习过程就等于在高维空间中找到一个空间面能最好地拟合训练数据。变换到高维空间的模式识别比低维空间的模式识别更容易线性区分,这就是我们通常将RBF网络的隐含层维数取得很高的原因;另一个原因是隐含空间的维数与网络实现输入-输出平滑映射的能力直接相关,维数越高,逼近精度越高(Simon,2001)。
广义回归神经网络(GRNN)可以说是一个正规化的RBF网络,是连续函数的通用逼近器,它是广泛应用于函数逼近的一类高效的径向基函数网络(周昊等,2004)。其中,每个隐含层神经元以每个训练数据点为中心,隐层到输出的权值设定为目标值,因此,其输出只是接近给定输入向量的训练样本的目标值的带权平均。唯一需要学习和确定的权值是RBF单元的宽度(spread),这个宽度也叫“平滑因子”或“带宽”。在设计广义回归神经网络时可以指定径向基函数的spread,其值越大,函数逼近得越平滑。若要精确拟合数据,就用比一般输入向量间的距离小的spread;若要更平滑地拟合数据,就使用较大的spread。
图 3为广义回归神经网络的结构图(Marin et al., 2002)。可见它是一个两层神经网络,第1层有径向基神经元,第2层有线性神经元。其中,R为输入向量的元素个数,Q为第1层、第2层的神经元数目和输入/目标对数目。ai1是第i个元素,iIW1, 1是IW1, 1的第i行向量。
![]() |
图 3 广义回归神经网络(GRNN)结构图 Fig. 3 Structure of Generalized Regression Neural Network (GRNN) |
第1层的神经元数目与P中的输入/目标向量数目一样多。第1层的权矩阵被特别设定为P′。阈值b1设定为0.832 6/ spread的列向量。用户选择spread,输入向量和神经元权矩阵的距离设为0.5。第1层中,每个神经元的带权输入是输入向量和它权向量之间距离,用dist,即欧几里德距离‖dist‖来计算。每个神经元的网络输入是其带权输入和阈值的乘积,用netprod来计算。每个神经元的输出是它的网络输入经过径向基函数。如果一个神经元的权向量和输入向量的转置相等,它的带权输入将为0,网络输入是0,而输出将为1。第2层同样有着与输入/目标向量数目相等的神经元,但是这里,LW2.1被设为T。若我们有一个输入向量接近pi,输入向量/目标向量对中的一个输入向量被用来设定第1层的权。输入矩阵P得出第1层输出ai,接近于1。这会导致第2层的输出接近于ti,其中一个目标向量构成第2层的权。越大的spread会导致在输入向量附近越大的区域,在这个区域内第1层的神经元会相应出较为显著的输出。因此,如果spread很小,径向基函数会非常陡,从而带有与输入最接近的权向量的神经元会被别的神经元有大得多的输出。因此,网络会响应最近输入向量的目标向量。随着spread的增加,径向基函数会变得越平滑,会有几个神经元响应一个输入向量,从而网络函数变得平滑。
3 建模数据预处理在对给定样本分析统计后,为充分利用训练数据,深入揭示其内在关系,计划给出3类模型:总体模型;基于不同树龄的子模型;基于逐步分析的关键因子组合模型。
在建模之前还需要一些数据预处理步骤。
3.1 数据标准化处理数据标准化处理实际上就是由P到Pn的变换(楼顺天等,1998),运算框图如图 4所示。
![]() |
图 4 标准化处理框图 Fig. 4 Structure of normalizing process |
对于多输入模型,有时输入向量维数很大,但向量存在很大冗余,在这种情况下给输入向量降维是行之有效的数据预处理方法。本文采用的降维算法是主成分分析,它能起到3个作用:将输入向量作正交化处理;将正交向量排序,较大的因子排在前面;除去贡献小的因子。
在进行主成分分析时要给定贡献因子的显著界限,即通过主成分分析将小于显著界限的贡献因子消掉。
3.3 逐步回归分析逐步回归分析的一个重要假设是,在一个多次回归中有一些因子对响应没有重要的影响。如果这个假设成立,这就是很方便的简化模型、保留统计最显著因子的方法。
逐步回归分析分为前向逐步回归和后向逐步回归。具体说来,前向逐步回归从没有模型变量开始,每一步添加一个统计的最显著因子(有最高F统计或最低p值的因子)直到都添加完毕。后向逐步回归是开始所有因子在模型中,之后每一步移除一个最不显著因子,直到剩余所有因子都是统计显著的。当然,也可以从模型因子的一个子集开始,或添加显著因子或移除不显著因子。
在多元逐步回归分析中,一个普遍存在的问题就是输入变量的多重相关性。输入变量可能彼此相关,如同它们和响应相关一样。如果是这样,模型中一个变量的出现会掩盖住另一个变量的作用。因此,逐步回归可能包含不同的变量组合,这些组合依赖于模型最开始的选择和排除策略(李涛等,2000)。
4 建模实现及结果 4.1 建模过程概述建模任务围绕计划的3类模型展开,包括杉木总体关系模型、杉木基于不同树龄的关系模型(8个子模型)、杉木基于关键变量组合的关系模型(对应于杉木的7个输出指标,每个指标分别有若干个有代表性的优化组合)。建模过程如图 6所示。
![]() |
图 6 建模过程框图 Fig. 6 Structure of modeling process |
将训练数据集正规化,并对正规化的数据进行主成分变换,设定显著界限α=0.05,创建和训练广义回归神经网络模型。
该模型实现的是映射RR′→RS,其中R′ < R,R为输入向量的维数(Fredric,2003)。
为了检验神经网络模型的精度,建模的“后续工艺”是必不可少的。
对网络训练的后续处理是通过对网络响应的每一个元素和相应的目标值作线性回归来实现的。
通过仿真网络,并还原网络输出,对还原后的网络输出和目标向量作线性回归,来检验网络训练的性能,在网络响应和目标值之间作线性回归来计算网络响应和目标值之间的相关系数。图 7中理想回归直线(网络输出等于目标输出时的直线)由实线表示,最优回归直线由虚线表示。由图可见最优回归直线的斜率和y轴截距,当斜率为1、截距为0时,网络输出和目标输出完全相同,此时的网络具有最优的性能。
![]() |
图 7 杉木总体模型(A)和3子模型(B)线性回归曲线 Fig. 7 Linear regression graph of overall model and 3rd sub-model of Chinese Fir 横坐标为目标输出,纵坐标为网络输出。The abscissa is object export, the y-axis is network export. fig.a:Bending resistant modulus of elasticity, fig.b:Bending strength, fig.c:Compression strength parallel to grain, fig.d:Axial shrinkage, fig.e:Tangential shrinkage, fig.f:Radial shrinkage, fig.g:Basic density. |
图 7的表达式中,A-1×Q网络输出矩阵;T-1×Q目标矩阵;M-线性回归的斜率;B-线性回归的Y-截距;R-回归R-value,它表示网络输出与目标输出的相关系数,它越接近于1,表示网络输出与目标输出越接近,网络性能越好,R=1代表完全相关。
4.3 基于不同树龄的子模型建模从心材到边材显著的材性变异是木材结构的一个不可忽视的特点,为了使本研究的神经网络建模充分揭示木材不同年龄段的性质变异状况,通过对原始数据根据不同采集部位进行分类,从而在总体模型的基础上得出基于不同树龄的子模型。图 7B所示是木材距轴心3 cm处的子模型(由部位可以大致换算为杉木年龄)的线性回归曲线,显然,网络性能很好。
4.4 关键变量建模本文研究所采用的样本中包括杉木微观结构的18个参数和物理、力学特性的7个指标。然而,相对于杉木的7个输出特性,各个结构参数对输出的影响显著程度不同。为了更加深入和明确地揭示本文致力于的关系模型,以便于今后的此类研究,本文给出一系列相对于杉木各个物理、力学特性的关键变量组合。
以杉木的抗弯弹性模量为例,通过图 5的多元逐步回归分析,得出几组关键因子组合,最优组合之一为微纤丝角、晚材管胞长度、晚材管胞T-壁厚度和胞壁率。之后按照前述建模步骤可以得到其神经网络模型,图 9为线性回归图形,可见该简化模型的精度可以接受。
![]() |
图 5 多元逐步回归分析 Fig. 5 Multi-variable stepwise regression analysis |
![]() |
图 8 一组关键变量模型的回归曲线 Fig. 8 Linear regression graph of the model with a group of key variables |
本文基于一组杉木微观结构参数和物理、力学特性的样本,给出了一类神经网络建模方法,根据这种建模方法实现的杉木总体模型、分年龄段模型和关键变量组合模型很好地揭示了杉木微观结构与其物理、力学特性的内在联系,研究中所建立的各个神经网络模型均通过回归分析的检验,网络性能较好。
刘晓丽, 王喜明, 姜笑梅, 等. 2004. 沙棘材解剖及物理力学性质的研究. 北京林业大学学报, 26(2): 84-89. DOI:10.3321/j.issn:1000-1522.2004.02.017 |
高隽. 2003. 人工神经网络原理及仿真实例. 北京: 机械工业出版社.
|
李涛, 贺勇军, 刘志俭. 2000. Matlab工具箱应用指南——应用数学篇. 北京: 电子工业出版社.
|
楼顺天, 施阳. 1998. 基于MATLAB的系统分析与设计——神经网络. 西安: 西安电子科技大学出版社.
|
闻新, 周露, 李翔, 等. 2003. MATLAB神经网络仿真与应用. 北京: 科学出版社.
|
张冬妍, 胡昆仑, 赵真非. 2003. 基于动态递归神经网络的木材干燥模型辨识. 森林工程, 19(6): 10-12. DOI:10.3969/j.issn.1001-005X.2003.06.005 |
张青贵. 2004. 人工神经网络导论. 北京: 中国水利水电出版社.
|
周昊, 郑立刚, 樊建人, 等. 2004. 广义回归神经网络在煤灰熔点预测中的应用. 浙江大学学报, 11: 38-43. |
周玉成, 程放, 李晓群. 2003. 非线性系统鲁棒渐近跟踪. 木材工业, 17(5): 11-13. DOI:10.3969/j.issn.1001-8654.2003.05.004 |
周玉成, 程放, 肖天际, 等. 2003. 一类含不确定因素的非线性系统鲁棒跟踪. 林业科学, 39(2): 130-136. DOI:10.3321/j.issn:1001-7488.2003.02.022 |
周玉成, 韩杰. 1998. 含约束的非线性不确定系统的鲁棒控制. 控制与决策, 13(2): 115-119. DOI:10.3321/j.issn:1001-0920.1998.02.006 |
Fredric M. 2003. Principles of Neurocomputing for Science and Engineering. 北京:机械工业出版社: 7-1. |
Melo de J E, Pellicane P J, Souza de M R. 2000. Goodness-of-fit analysison wood properties data from six Brazilian tropical hardwoods. Wood Science and Technology, 34(2): 83-97. DOI:10.1007/s002260000033 |
Martin T, Hogan H, Demuth B. 2002. 神经网络设计. 北京: 机械工业出版社.
|
Slu C L. 2004. Microfibril angle and density pattern of fertilized and irrigated Norway Spruce. Silva Fennica, 38(1): 107-117. |
Simon H. 2001. 神经网络的综合基础(第2版). 北京: 清华大学出版社.
|
Tian X, Cown D J, Lausber M J F G. 1995a. Modeling of Pinus radiata wood properties.part 1.Spiral Grain. New Zealand Journal of Forestry Science, 25(2): 200-213. |
Tian X, Cown D J, Lausber M J F G. 1995b. Modeling of Pinus radiata wood properties.part 2.Basic Density. New Zealand Journal of ForestryScience, 25(2): 214-230. |