测绘地理信息   2021, Vol. 46 Issue (3): 50-54
0
利用PSO-GA-LSSVM模型预测基坑周边建筑物沉降[PDF全文]
谢洋洋1, 付超1, 吴大鹏1, 卞晓晨1, 王春1    
1. 江苏省基础地理信息中心,江苏 南京,210013
摘要: 针对最小二乘支持向量机(least square support vector machine,LSSVM)模型参数选择存在随机性与单一优化算法寻找参数存在局限的问题,将遗传算法(genetic algorithm,GA)、粒子群优化(particle swarm optimization,PSO)算法引入LSSVM模型,建立了基于粒子群-遗传算法(PSO-GA)优化的LSSVM沉降预测模型。将GA嵌入PSO算法,降低了模型参数寻优陷入局部最优的可能,提高模型拟合精度。结合具体工程实例,将提出的模型与LSSVM模型、PSO算法优化的LSSVM(PSO-LSSVM)模型、GA优化的LSSVM(GA-LSSVM)模型进行对比,结果表明改进模型的精度更好,稳定性更强。
关键词: 最小二乘支持向量机    粒子群优化算法    遗传算法    粒子群-遗传算法    沉降预测    
Prediction of Building Settlement Around Foundation Pit Using PSO-GA-LSSVM Model
XIE Yangyang1, FU Chao1, WU Dapeng1, BIAN Xiaochen1, WANG Chun1    
1. Provincial Geomatics Center of Jiangsu, Nanjing 210013, China
Abstract: Aiming at the problems of parameter selection randomness in least squares support vector machine(LSSVM) model and the limitation of parameter searching in single optimization algorithm, the genetic algorithm(GA) and particle swarm optimization(PSO) algorithm are introduced into the LSSVM model, and then the optimized LSSVM settlement prediction model based on PSO-GA is established. The GA is embedded into the PSO algorithm to reduce the possibility of the model parameter optimization falling into local optimum and to improve the efficiency of model parameter optimization. Combined with the specific engineering examples, the proposed model is compared with the LSSVM model, PSO-LSSVM model and GA-LSSVM model. The results show that the improved model has better accuracy and stronger stability than the other three models.
Key words: least square support vector machine(LSSVM)    particle swarm optimization (PSO) algorithm    genetic algorithm(GA)    particle swarm optimization-genetic algorithm(PSO-GA)    settlement prediction    

分析建筑物的沉降与倾斜变形,并精确预测变形体的变化趋势,对进一步降低工程事故的发生频率具有重要意义。用于分析和预测建筑物、构筑物及其基础变形的模型与方法很多,目前常用的有灰色模型、神经网络模型、支持向量机等,但是各个模型都有局限性。例如,灰色模型适用于研究数据频乏以及信息不确定的情况,但是只有在数据为正序指数递增的情况下,预测效果才较佳;反向传播(back propagation,BP)神经网络模型的计算受初值影响,有极佳的非线性映射能力和自学习适应力,但是稳定性不足,容易陷入局部最优;支持向量机以结构风险最小为原则,不但算法简单,对数据规模与分布要求不高,而且具有较好的鲁棒性,但是其在参数搜寻上存在随机性,需要进行大量试算[1-7]。最小二乘支持向量机(least square support vector machine,LSSVM)模型是在统计学习的基础上建立的一种自适应模型,它以结构化风险最小为核心,在样本小、多变量等领域有非常广泛的应用[8-11],但是模型的参数选择存在随机性。遗传算法(genetic algorithm,GA)能够对目标进行直接搜索,并且保持函数运行的连续性,也无需进行微分求导计算,从而极大提高了搜索的效率,增强了参数全局搜索的能力,但是搜索空间变大,会相应地增加计算的复杂性[12, 13];粒子群优化(particle swarm optimization,PSO)算法是全局搜索算法中的一种,具有搜索效率高、所需参数少、易实现的特点,但是搜寻过程中容易陷入局部最优[14, 15]

本文将GA嵌入PSO算法,建立了一种粒子群-遗传算法(particle swarm optimization-genetic algorithm,PSO-GA)优化的LSSVM沉降预测模型,即PSO-GA-LSSVM模型。此算法能够降低参数寻优陷入局部最优的可能,提高模型预测的精度。本文将PSO-GA-LSSVM模型与单一LSSVM模型、PSO算法优化的LSSVM(PSO-LSSVM)模型、GA优化的LSSVM(GA-LSSVM)模型进行比较分析,以检验模型效果。

1 LSSVM基本原理

D={ (xi, yi) i=1, 2, 3, …, n},其中,xi表示相应的参数输入,xiRnyi是计算结果相应的输出值,yiR。根据结构化风险原则,求解函数f(x)的最小值,则有:

$ \min J({\mathit{\boldsymbol{w}}}, b, e)=\frac{1}{2} {\mathit{\boldsymbol{w}}}^{\mathrm{T}} {\mathit{\boldsymbol{w}}}+\frac{1}{2} \gamma \sum\limits_{i=1}^{n} e_{i}^{2} $ (1)
$ \text { s. t. } y_{i}=\boldsymbol{w}^{\mathrm{T}} \boldsymbol{\varphi}\left(x_{i}\right)+b+e_{i}, i=1, 2, \cdots, n $ (2)

式中,w代表权重,用来控制系数;e表示松弛因子;J(w, b, e)为损失函数;γ表示惩戒系数;φ (x)表示映射函数;b表示偏置量。

针对we存在二次规划计算的问题,本文应用拉格朗日算子进行计算,其表达式为

$ \begin{array}{c} L(\boldsymbol{w}, b, e, \boldsymbol{\alpha})=\frac{1}{2} \boldsymbol{w}^{\mathrm{T}} \boldsymbol{w}+\frac{1}{2} \gamma \sum\limits_{i=1}^{n} e_{i}^{2}- \\ \sum\limits_{i=1}^{n} \alpha_{i}\left\{y_{i}\left(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{\varphi}\left(x_{i}\right)+b\right)-1+e_{i}\right\} \end{array} $ (3)

式中,α =[α1   α2   …   αn]T表示拉格朗日乘子。

根据Karush-Kuhn-Tucher (KKT)原则对函数进行微分计算,得到:

$ \left\{\begin{array}{l} \frac{\partial L}{\partial {\mathit{\boldsymbol{w}}}}=0 \rightarrow {\mathit{\boldsymbol{w}}}=\sum\limits_{i=1}^{n} {\mathit{\alpha}}_{i} \boldsymbol{\varphi}\left(x_{i}\right) \\ \frac{\partial L}{\partial b}=0 \rightarrow \sum\limits_{i=1}^{n} \alpha_{i}=0 \\ \frac{\partial L}{\partial e_{i}}=0 \rightarrow \gamma e_{i}=\alpha_{i} \\ \frac{\partial L}{\partial \alpha_{i}}=0 \rightarrow y_{i}\left(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{\varphi}\left(x_{i}\right)+b\right)-1+e_{i}=0 \end{array}\right. $ (4)

齐次线性方程可以表示为:

$ \left[\begin{array}{ccccc} 0 & 1 & 1 & \cdots & 1 \\ 1 & K\left(X_{1}, X_{1}\right)+1 / \gamma & K\left(X_{1}, X_{2}\right) & \cdots & K\left(X_{1}, X_{n}\right) \\ 1 & K\left(X_{2}, X_{1}\right) & K\left(X_{2}, X_{2}\right)+1 / \gamma & \cdots & K\left(X_{2}, X_{n}\right) \\ \vdots & \vdots & \vdots & \vdots & \vdots \\ 1 & K\left(X_{n}, X_{1}\right) & K\left(X_{n}, X_{2}\right) & \cdots & K\left(X_{n}, X_{n}\right)+1 / \gamma \end{array}\right]\left[\begin{array}{c} b \\ \alpha_{1} \\ \alpha_{2} \\ \vdots \\ \alpha_{n} \end{array}\right]=\left[\begin{array}{c} 0 \\ y_{1} \\ y_{2} \\ \vdots \\ y_{n} \end{array}\right] $ (5)

式中,K(Xi, Xj)表示核函数。

对式(5)进行整理,可以得到如下矩阵:

$ \left[\begin{array}{lc} 0 & \boldsymbol{l}_{v}^{\mathrm{T}} \\ \boldsymbol{l}_{v} & \boldsymbol{Z} \boldsymbol{Z}^{\mathrm{T}}+\gamma^{-1} \boldsymbol{I} \end{array}\right]\left[\begin{array}{l} b \\ \boldsymbol{\alpha} \end{array}\right]=\left[\begin{array}{l} 0 \\ \boldsymbol{y} \end{array}\right] $ (6)

式中,Z =[φ (x1)T  φ (x2)T   …   φ (xn)T]T; y =[y1   y2   y3   …   yn]T; lv=[1    1   …   1]T

Ω = ZZT+γ-1 I,得到αb之间的函数关系为:

$ \boldsymbol{\alpha}=\left(\boldsymbol{y}-b \boldsymbol{l}_{v}\right) {\mathit{\pmb{Ω}}}^{-1} $ (7)
$ b=\left(\begin{array}{lll} \left.\boldsymbol{l}_{v}^{\mathrm{T}} {\mathit{\pmb{Ω}}}^{-1} \boldsymbol{l}_{v}^{\mathrm{T}}\right)^{-1} \boldsymbol{l}_{v}^{\mathrm{T}} {\mathit{\pmb{Ω}}}^{-1} \boldsymbol{y} \end{array}\right. $ (8)

映射函数φ (x)与对应的核函数K(Xi, Xj)存在着以下关系:

$ K\left(X_{i}, X_{j}\right)=\boldsymbol{\varphi}\left(X_{i}\right)^{\mathrm{T}} \boldsymbol{\varphi}\left(X_{i}\right) $ (9)

则LSSVM的回归模型表达式为:

$ f(x)_{\mathrm{LS}}=\operatorname{sgn}\left[\sum\limits_{i=1}^{n} \alpha_{i} y_{i} K\left(X_{i}, X_{j}\right)+b\right] $ (10)

式中,αib是式(6)的解;f(x)LS为所求的回归函数。

2 PSO-GA与PSO-GA-LSSVM预测模型 2.1 PSO-GA

相对于GA,PSO算法设置种群数目的多少对其运算效率影响不大,并且该算法拥有很好的自记忆能力,能够在循环过程中将相对较优的粒子很好地记录下来。但是在GA中无法实现该功能,当算法迭代结束时,只能将循环中最好的种群个体记录保存下来。因此,将GA中的算子嵌入PSO算法,能够很好地弥补其不足,从而提高全局搜索能力,具体算法流程见图 1

图 1 PSO-GA算法流程 Fig.1 Flow Chart of PSO-GA Algorithm

在嵌入内容方面,PSO-GA以GA进化编码为依据,将GA因子嵌入PSO算法中,将选择、交叉与变异算子加入其中,从而模仿GA进化编码过程,并将此编码过程作为PSO算法中的一个干扰项。在嵌入位置方面,因为PSO算法在寻找参数的过程中很容易陷入局部最优,并且在未达到最大循环次数前已经搜寻到局部最优解,从而出现表象的迭代稳定。因此在训练过程中嵌入干扰项,任何一次循环都会经过该干扰项,从而降低PSO算法在搜寻最优参数过程中陷入局部最优的可能。

2.2 PSO-GA-LSSVM预测模型

设建筑物原始时间序列为{X(t), t=1, 2, …, m},将前t期数据作为训练样本集合,剩余的数据作为测试样本集合,建立PSO-GA-LSSVM预测模型,通过模型预测分析得到输出值F={F1, F2, …Fj},模型预测流程见图 2

图 2 模型预测流程图 Fig.2 Flow Chart of Model Prediction

3 工程案例

本文以上海某地铁车站深基坑西北方向7幢高层建筑的实测沉降数据为实验数据,根据技术设计的监测方案要求,在深基坑的四周及外围设置了水准网与监测基点,采用二等水准测量对深基坑周边建筑物的沉降量进行监测。由于布设点较多,本文在典型特征点中挑选出JZ9号点进行展示,其周期性监测原始数据曲线如图 3所示。

图 3 JZ9号点沉降位移图 Fig.3 Settlement Displacement Diagram of JZ9 Point

3.1 PSO-GA的模型参数寻优与训练

本文将GA的遗传因子嵌入PSO算法中,建立PSO-GA,对最优参数进行搜寻。PSO-GA的最大迭代次数为300,种群的规模为20,交叉概率为0.4,变异概率为0.1,核参数C的取值范围为[0.1, 5 000],γ的取值范围是[0.01, 100],代表其局部搜索能力的c1为1.5,代表其全局搜索能力的c2为1.7,种群变化系数为1,速度转换关系k为0.5。采用三折交叉验证法进行验证,不同优化算法的最佳适度值曲线比对见图 4

图 4 不同优化算法的寻优曲线图 Fig.4 Optimization Curves of Different Optimization Algorithms

图 4可知,PSO算法寻优过程中曲线上下波动较大,迭代140次左右逐渐趋于平缓,可能是因为迭代进入局部最优解,虽然循环已经保持稳定,但所得结果不是最优值;GA的全局搜索能力很强,迭代次数为40和120时效果较好,170次以后适应度值又跳出优值重新迭代计算,在240次左右适应度值呈下降趋势,直至循环结束。由此可以看出,GA能够降低搜寻参数陷入局部最优的可能,但是计算时间相对较长;PSO-GA结合了两种算法的优点,其搜寻最优参数的能力强,并且计算搜寻的效率也比较稳定,总体运行时间在1~2 min左右。将GA中的遗传算子嵌入PSO算法,可以提高算法的全局搜索能力,以及相同次数的循环中得到最优解的可能性。最终PSO算法、GA与PSO-GA得到的最优参数组合(核参数和惩戒系数)分别为C1=4 568.573,γ1=0.168;C2=4 604.360,γ2=0.167;C3=4 730.724 0,γ3=0.148 6。

3.2 模型分析

利用监测点序列的前20期观测序列进行训练学习,余下的6期数据进行测试分析。为了检验提出的模型的可靠性与精确性,将其与其余3种算法进行对比,并以平均相对误差(mean relative error,MRE)、均方根误差(root mean square error,RMSE)与均方误差(mean square error,MSE)为评定指标进行精度评定。各模型训练集合的各项评定指标结果见表 1;各模型的拟合结果对比见表 2;不同模型的法拟合结果见图 5;各模型对应的评定精度见表 3

表 1 训练样本的精度评定 Tab.1 Accuracy Evaluation of Training Sample

表 2 不同优化算法的LSSVM模型的拟合值/mm Tab.2 Fitting Values of LSSVM Models with Different Optimization Algorithms/mm

图 5 模型拟合值对比 Fig.5 Comparison of Model Fitting Values

表 3 不同模型的拟合精度 Tab.3 Fitting Accuracy of Different Models

表 1可以看出,相较于其他模型,PSO-GA-LSSVM模型在MRE、RMSE、MSE方面均有一定的精度优势。

表 3可知,PSO-LSSVM模型预报的MRE为3.41%,RMSE为0.099 mm;GA-LSSVM模型预测的MRE为3.22%,RMSE为0.101 mm;PSO-GA-LSSVM模型预测的MRE为2.30%,RMSE为0.066 mm。分析可知,PSO-GA-LSSVM模型及GA-LSSVM模型拟合的稳定性相对更高;PSO-GA-LSSVM模型及PSO-LSSVM模型的拟合精度相对较高,与测试集合的吻合度更高。

4 结束语

1) 本文将GA嵌入PSO算法,建立了新的参数寻优方法PSO-GA。在同等情况下,PSO-GA相较于传统优化算法能够有效降低陷入局部最优的可能。

2) 本文建立了PSO-GA优化的LSSVM模型,即PSO-GA-LSSVM模型,并分别从MRE、RMSE和MSE 3个方面对比了PSO-LSSVM模型、GA-LSSVM模型、LSSVM模型与该模型的拟合情况,PSO-GA-LSSVM模型在MRE、RMSE、MSE 3个精度指标方面明显优于其他模型,拟合精度更好。

参考文献
[1]
文鸿雁, 周吕, 韩亚坤, 等. 基于卡尔曼滤波的GM(1, 1) 模型在高铁隧道沉降变形分析中的应用[J]. 大地测量与地球动力学, 2014, 34(1): 88-91.
[2]
黄声享, 尹晖, 蒋征. 变形监测数据处理: 第2版[M]. 武汉: 武汉大学出版社, 2010.
[3]
田旦, 许才军, 郭玉斌. 灰色动态组合模型及其在大坝变形预测中的应用[J]. 测绘信息与工程, 2008, 33(6): 39-40.
[4]
何怀峰, 李明路, 刘军柱. 小波分析在急倾斜煤层开采沉陷监测数据分析中的应用[J]. 中国地质灾害与防治学报, 2014, 25(4): 76-80.
[5]
徐峰, 汪洋, 杜娟, 等. 基于时间序列分析的滑坡位移预测模型研究[J]. 岩石力学与工程学报, 2011, 30(4): 746-751.
[6]
李龙, 高永涛, 吴顺川, 等. 综合改进BP神经网络在边坡稳定性预测中的应用[J]. 煤炭技术, 2015, 34(9): 202-205.
[7]
耿耘. 地下工程围岩变形的支持向量机预测方法研究[D]. 北京: 北京交通大学, 2014
[8]
周华平, 熊博杰, 桂海霞. 最小二乘支持向量机优化模型在煤矿安全预测中的应用[J]. 测绘科学, 2014, 39(7): 150-154.
[9]
任超, 梁月吉, 庞光锋, 等. 基于灰色最小二乘支持向量机的大坝变形预测[J]. 大地测量与地球动力学, 2015, 35(4): 608-612.
[10]
杨帆, 谢洋洋. 基于LSSVM的区域卫星高程拟合模型[J]. 导航定位学报, 2017, 5(1): 100-102.
[11]
谢洋洋, 杨帆, 俞凯. EEMD-PSOGSVM耦合模型在深基坑位移预测中的应用[J]. 大地测量与地球动力学, 2017, 37(6): 599-603.
[12]
季斌, 周涛发, 袁峰. 遗传算法优化支持向量机矿产预测方法[J]. 测绘科学, 2015, 40(10): 106-109.
[13]
沈哲辉, 黄腾, 沈月千, 等. 遗传算法优化支持向量机在大坝变形预测中的应用[J]. 大地测量与地球动力学, 2016, 36(10): 927-929.
[14]
彭令, 牛瑞卿, 赵艳南, 等. 基于核主成分分析和粒子群优化支持向量机的滑坡位移预测[J]. 武汉大学学报·信息科学版, 2013, 38(2): 148-152.
[15]
郑志成, 徐卫亚, 徐飞, 等. 基于混合核函数PSO-LSSVM的边坡变形预测[J]. 岩土力学, 2012, 33(5): 1 421-1 426.