随着自动驾驶技术的迅速发展,多传感器融合方法成为了一大趋势。激光雷达可以实时捕捉环境中的3D信息,具有较高的精度和较广的视野范围,是目前自动驾驶技术的主流传感器之一。然而由于通常无法避免激光雷达在扫描时产生的运动,因此其获取的点云数据往往会存在一定的畸变。尤其是在高速运动的场景下,严重的运动畸变会在很大程度上影响基于点云的定位或感知算法的结果。针对这一问题,IMU(惯性测量单元)可以起到很好的补充作用。较为常见的6轴IMU,可以高频地获取自身的3轴加速度信息和3轴角速度信息,从而对激光雷达扫描期间的运动进行估计,进而实现对点云的去畸变处理。另外,在实际的复杂场景下,动态物体的出现以及结构特征的缺失,都会影响激光雷达SLAM(同步定位与地图构建)的定位精度;而IMU在不同场景中具有较为稳定的定位结果。目前的定位方法正朝着多传感器融合的方向发展,已有一些优秀的LiDAR-IMU紧耦合的SLAM方法[1-2],取得了较为鲁棒的定位结果。
作为多传感器融合技术最基础的模块,标定方法往往会在很大程度上影响最终的性能,因此如何提高标定方法的精度和鲁棒性,成为多传感器融合的研究热点。目前,激光雷达与相机间的标定方法[3-6]、以及相机与IMU间的标定算法[7-9]已较为成熟,而关于激光雷达与IMU之间标定算法的研究工作[10-14]相对较少。其中,文[10-11]中的方法需要基于高精度GPS信息对IMU姿态进行估计,才能实现对激光雷达和IMU之间的外部参数标定。而文[12]中的方法则是需要将相机作为辅助传感器来实现对激光雷达和IMU的间接标定,即先基于棋盘对相机和IMU进行外部参数标定,再基于相机-IMU系统对单光束激光雷达进行校准。因此,文[10-12]中的方法都存在一定局限性。
目前直接对激光雷达和IMU进行联合标定的算法,是通过优化模型对激光雷达和IMU数据进行紧耦合融合实现的。2018年,Le Gentil等[13]提出了一种可行的LiDAR-IMU联合标定方法,该方法参考了基于优化的紧耦合VIO(视觉惯性里程计)的思路,构建了激光雷达约束因子和IMU约束因子,并基于因子图进行联合优化。其中,由于激光雷达约束因子是通过计算点到平面结构的距离来获得的,因此该标定算法仅适用于室内墙角这类具有3个平面的区域。针对高速运动下激光雷达点云失真的问题,该算法基于高斯过程回归(GPR)方法对IMU数据进行上采样,再通过预积分获得高频的位姿估计结果,基于该结果对单帧点云中每个点进行去畸变处理。2020年,Lü 等[14]开源了第一款LiDAR-IMU联合标定算法LI-Calib。针对IMU离散数据,该方法基于B样条(B-spline)方法,实现了连续的位姿估计。并构建了激光雷达点面距离残差和IMU残差,基于Ceres优化库实现了联合优化。不过,该方案对于标定数据的采集环境有较高要求,需要在具有大块完整的平面结构的区域中才能达到较为理想的标定结果。在日常的室内复杂环境,或是室外道路环境中,通常存在较多的遮挡,且结构特征较不明显,往往不具有大块完整的平面结构,因此标定精度受到一定影响。
针对该问题,本文提出了一种鲁棒的LiDAR- IMU联合标定方法。主要创新点如下:
(1) 将线特征[15]的思想引入到标定任务中,通过同时构建线特征匹配对和面片匹配对,提高了算法对复杂环境的自适应特征提取能力,有效提升了标定精度和标定算法对复杂环境的适应能力。
(2) 考虑到在迭代优化前期参数估计精度不高,对标定算法的优化过程提出了双阶段的迭代优化方式,选择在优化达到一定精度后再加入线特征匹配对,使得迭代优化能进一步收敛。同时,考虑到随着迭代优化的逐步收敛,匹配对的几何残差会大幅度地减小,进而在优化问题中该类残差的参与度(贡献)占比会迅速减小,较容易陷入局部最优解,进一步根据每轮迭代优化的几何残差设计了自适应损失权重,使得迭代优化流程能更好地收敛,从而提高标定算法的精度。
本文中坐标系定义如下:IMU坐标系为
本文提出的LiDAR-IMU联合标定方法主要包含3个阶段,初始化阶段、匹配构建阶段和迭代优化阶段,具体如图 1所示。
首先,初始化阶段是将IMU的旋转姿态与激光雷达的旋转姿态进行对齐,从而初步估计激光雷达与IMU之间的旋转矩阵。而匹配构建阶段则是提取点云特征,并融合激光雷达和IMU数据构建线特征地图和面片地图,进而构建对应的匹配关系。最后,迭代优化阶段则是利用构建的匹配对来优化雷达与IMU之间的外部参数,以及IMU内加速度计和陀螺仪的内部参数,并通过更新地图和匹配对,来进一步迭代优化,最终得到收敛的标定结果。
2.2 初始化阶段初始化阶段主要参考了文[14]中的工作,该方案将IMU的位姿估计分解成了旋转估计
$ \begin{align} \mathit{\boldsymbol{p}}(t) & = \mathit{\boldsymbol{p}}_{i} + \sum\limits_{j = 1}^{3} \mathit{\boldsymbol{u}}^{\rm T}\mathit{\boldsymbol{M}}_{(j)}^{(4)}(\mathit{\boldsymbol{p}}_{i + j} - \mathit{\boldsymbol{p}}_{i + j - 1}) \end{align} $ | (1) |
$ \begin{align} \mathit{\boldsymbol{q}}(t) & = \mathit{\boldsymbol{q}}_{i} \otimes \prod\limits_{j = 1}^{3} \exp \left(\mathit{\boldsymbol{u}}^{\rm T}\mathit{\boldsymbol{M}}_{(j)}^{(4)} \ln(\mathit{\boldsymbol{q}}_{i + j - 1}^{- 1} \otimes \mathit{\boldsymbol{q}}_{i + j})\right) \end{align} $ | (2) |
式中,
$ \begin{align} \mathit{\boldsymbol{M}}^{(4)} = \frac{1}{6} \begin{bmatrix} 6 & 5 & 1 & 0 \\ 0 & 3 & 3 & 0 \\ 0 & -3 & 3 & 0 \\ 0 & 1 & -2 & 1 \end{bmatrix} \end{align} $ | (3) |
通过对平移曲线和旋转曲线求导,可以很方便地得到加速度曲线和角速度曲线,从而和IMU数据中的3轴加速度和3轴角速度构建联系,具体公式如下:
$ \begin{align} {}^{I}\mathit{\boldsymbol{a}}(t) & ={}_{I}^{I_{0}} \mathit{\boldsymbol{R}}^{\rm T} (t) \left({}_{I}^{I_{0}} \ddot{\mathit{\boldsymbol{p}}} (t) -{}^{I_{0}}\mathit{\boldsymbol{g}}\right) \end{align} $ | (4) |
$ \begin{align} {}^{I}\mathit{\boldsymbol{\omega}}(t) & ={}_{I}^{I_{0}}\mathit{\boldsymbol{R}}^{\rm T}(t)_{I}^{I_{0}}\dot{\mathit{\boldsymbol{R}}}(t) \end{align} $ | (5) |
式中,
对激光雷达的轨迹估计可以基于激光SLAM实现,将原始点云与局部地图配准,估计每一帧点云相对于
将基于B样条曲线获得的IMU帧间旋转增量和基于激光雷达SLAM获得的激光雷达帧间旋转增量进行逐帧对齐,从而求解出激光雷达与IMU之间的旋转外部参数:
$ \begin{align} {}_{I_{k + 1}}^{\kern 8pt I_{k}}\mathit{\boldsymbol{q}} \otimes{}_{L}^{I}\mathit{\boldsymbol{q}} ={}_{L}^{I}\mathit{\boldsymbol{q}} \otimes{}_{L_{k + 1}}^{\kern 8pt L_{k}}\mathit{\boldsymbol{q}} \end{align} $ | (6) |
式中,
匹配构建阶段大致可以分为以下3个环节:点云去畸变与线特征提取、地图构建、匹配构建。相比文[14],本文主要的改进在于引入了线特征,从复杂环境中提取出直线结构,特征定位更加精细,而且不易受遮挡等情况的影响。同时,构建了点线匹配对,来强化标定算法的几何约束,以达到更高的精度和更好的鲁棒性。下面展开描述匹配构建阶段的3个环节。
2.3.1 点云去畸变与线特征提取基于初始化阶段估计的IMU旋转曲线和激光雷达与IMU之间的旋转外部参数,可以预测激光雷达实时的旋转,估计单帧点云中每个点相对于帧头时刻的旋转增量:
$ \begin{align} \Delta\mathit{\boldsymbol{q}}_{k}^{i} ={}_{L}^{I}\mathit{\boldsymbol{q}}^{- 1} \otimes {}_{I}^{I_{0}}\mathit{\boldsymbol{q}}^{- 1} (t_{k}^{0}) \otimes {}_{I}^{I_{0}}\mathit{\boldsymbol{q}} (t_{k}^{i}) \otimes {}_{L}^{I}\mathit{\boldsymbol{q}} \end{align} $ | (7) |
式中,
而线特征提取模块的主要功能,在于从去畸变后的单帧点云中提取出平面交线,即线特征点。首先,对于去畸变后的点云,计算每个点的曲率值:
$ \begin{align} c_{i} = \frac{1}{2n}\sum\limits_{j \in S} | d_{i} - d_{j} | \end{align} $ | (8) |
式中,
地图构建的主要功能在于基于激光雷达SLAM构建线特征地图和面片地图。该模块首先需要基于NDT匹配算法对去畸变后的点云进行逐帧匹配,从而得到激光雷达的位姿
$ \begin{align} \mathcal{P} = 2\frac{\lambda_{1} - \lambda_{0}}{\lambda_{0} + \lambda_{1} + \lambda_{2}} \end{align} $ | (9) |
式中,
图 2展示了办公室场景地图的可视化效果,为了更加直观,展示的是标定算法最终收敛后构建的地图。其中,从上往下分别是点云地图
匹配构建模块的主要功能在于,基于最新的标定参数,将每一帧点云投影到地图坐标系下,并基于最近邻方法查找,将投影后的点云与线特征地图和面片地图分别进行匹配,构建点线匹配对和点面匹配对。
其中,将单帧点云投影到地图坐标系的步骤如下:
(1) 基于激光雷达与IMU之间的外部参数矩阵,将当前帧激光雷达坐标系下的点云投影到IMU坐标系下。
(2) 基于拟合的IMU旋转曲线和平移曲线,将当前帧IMU坐标系下的点云投影到
(3) 基于激光雷达与IMU之间的外部参数矩阵,将
上述点云投影的过程可以表示为
$ \begin{align} {}^{L_{0}}\mathit{\boldsymbol{p}}_{i} ={}_{L}^{I}\mathit{\boldsymbol{R}}^{\rm T} \left({}_{I_{j}}^{I_{0}}\mathit{\boldsymbol{R}} \left({}_{L}^{I}\mathit{\boldsymbol{R}}{}^{L_{j}}\mathit{\boldsymbol{p}}_{i} +{}_{L}^{I}\mathit{\boldsymbol{t}}\right) +{}_{I_{j}}^{I_{0}}\mathit{\boldsymbol{t}}\right) -_{L}^{I}\mathit{\boldsymbol{t}} \end{align} $ | (10) |
式中,
构建点线匹配对的方法用到了最近邻算法的思想:遍历所有的线特征点,在基于KD(
构建点面匹配对的方法同样用到了最近邻算法的思想:基于与面片地图相同的栅格对投影后的单帧点云进行分块处理,遍历所有具有平面结构的栅格,将栅格内的点与面片进行距离判定,若小于预设阈值,则将之作为一对点面匹配对。
2.4 迭代优化阶段迭代优化阶段是整个标定算法的最重要的一个环节,主要思想是通过逐轮的匹配构建和优化求解,经过迭代收敛,得到最终的精确解。本文在该阶段的主要创新在于:通过引入线特征约束来完善优化函数,并以双阶段的方式来实现迭代优化,同时增加了与每轮几何残差收敛程度有关的动态权重,以达到更好的收敛效果。
2.4.1 优化函数迭代优化阶段,待估计的参数包括了激光雷达与IMU之间的旋转矩阵和平移向量、IMU的旋转曲线和平移曲线、IMU内部加速度计和陀螺仪的偏移量、以及激光雷达与IMU之间的时延:
$ \begin{align} \mathit{\boldsymbol{x}} = [{}_{L}^{I}\mathit{\boldsymbol{q}}^{\rm T}, \; {}_{L}^{I}\mathit{\boldsymbol{t}}^{\rm T}, \; \mathit{\boldsymbol{x}}_{{\mathit{\boldsymbol{q}}}}^{\rm T}, \; \mathit{\boldsymbol{x}}_{{\mathit{\boldsymbol{t}}}}^{\rm T}, \; \mathit{\boldsymbol{b}}_{a}^{\rm T}, \; \mathit{\boldsymbol{b}}_{\omega}^{\rm T}, \; \delta t]^{\rm T} \end{align} $ | (11) |
式中,
迭代优化阶段的优化函数包括激光雷达约束和IMU约束2个部分。其中,激光雷达约束包括了点线匹配约束
$ \begin{align} \hat{\mathit{\boldsymbol{x}}} =\, \mathop{\arg\min}\limits _{{\mathit{\boldsymbol{x}}}} \Big\{ & \sum\limits_{k \in \mathcal{W}} \| \mathit{\boldsymbol{r}}_{\omega}^{k} \| ^{2} + \sum\limits_{k \in \mathcal{A}} \| \mathit{\boldsymbol{r}}_{a}^{k} \| ^{2} + \\ & \sum\limits_{j_{L} \in \mathcal{L}_{L}} \| \mathit{\boldsymbol{r}}_{\mathcal{L}_{L}}^{j_{L}} \| ^{2} + \sum\limits_{j_{\rm s} \in \mathcal{L}_{\rm s}} \| \mathit{\boldsymbol{r}}_{\mathcal{L}_{\rm s}}^{j_{\rm s}} \| ^{2}\Big\} \end{align} $ | (12) |
式中,
$ \begin{align} \mathit{\boldsymbol{r}}_{a}^{k} & ={}^{I_{k}}\mathit{\boldsymbol{a}}_{\rm m} -{}^{I}\mathit{\boldsymbol{a}}(t_{k} + \delta t) - \mathit{\boldsymbol{b}}_{a} \end{align} $ | (13) |
$ \begin{align} \mathit{\boldsymbol{r}}_{\omega}^{k} & ={}^{I_{k}}\mathit{\boldsymbol{\omega}}_{\rm m} -{}^{I}{\mathit{\pmb{\omega}}}(t_{k} + \delta t) - \mathit{\boldsymbol{b}}_{\omega} \end{align} $ | (14) |
式中,
迭代优化的流程具体分以下4个步骤:
(1) 联合IMU约束和激光雷达约束来构造优化函数,基于最小二乘法求解激光雷达与IMU之间的外部参数和IMU的内部参数、以及IMU的旋转曲线和平移曲线。
(2) 基于最新的IMU旋转曲线、平移曲线和激光雷达与IMU之间的外部参数矩阵,对原始点云同时进行旋转和平移去畸变处理,并基于最新的位姿估计结果,更新线特征地图和面片地图。
(3) 将去畸变后的点云重新投影到地图坐标系,并基于最新的线特征地图和面片地图,重新构建点线匹配对和点面匹配对。
(4) 重复步骤(1)~(3),迭代优化直至收敛。
其中,激光雷达与IMU之间外部参数和IMU的内部参数都以0作为初始值。在迭代优化的初期,由于构建的地图精度不高,在构建点与直线的匹配对时容易出现错误的匹配关系,导致迭代优化收敛缓慢。因此,本文提出了双阶段的迭代优化方式,2个阶段的区别具体体现在上述步骤(1) 构造的优化函数中。
阶段1:在迭代初期,仅将IMU约束和点面匹配约束加入优化方程,如式(15) 所示。基于该优化方程进行逐轮迭代优化,直至收敛。
$ \begin{align} \hat{\mathit{\boldsymbol{x}}} = \mathop{\arg\min}_{{\mathit{\boldsymbol{x}}}} \Big\{\sum\limits_{k \in \mathcal{W}} \| \mathit{\boldsymbol{r}}_{\omega}^{k} \| ^{2} + \sum\limits_{k \in \mathcal{A}} \| \mathit{\boldsymbol{r}}_{a}^{k} \| ^{2} + \sum\limits_{j_{\rm s} \in \mathcal{L}_{\rm s}} \| \mathit{\boldsymbol{r}}_{\mathcal{L}_{\rm s}}^{j_{\rm s}} \| ^{2} \Big\} \end{align} $ | (15) |
阶段2:当阶段1收敛后,再将点线匹配约束加入优化方程,即基于式(12) 进行迭代优化,直至收敛得到最终解。
2.4.3 动态权重通常,在对不同的约束进行联合优化时,需要基于优化权重来调整不同约束的残差值大小,尽可能使得这些残差在同一量级,往往采取的方式是对固定的权重进行手动调整。这种固定的方式在整个迭代优化的过程中会存在一定缺陷。例如,随着迭代过程的收敛,激光雷达几何匹配的距离残差会逐渐变小,若全程基于固定的权重,则会导致激光雷达几何约束在优化问题中相比IMU曲线拟合残差的贡献占比逐渐变小,导致容易陷入局部最优解。因此,本文针对几何约束,设计一种与激光雷达几何残差收敛程度有关的动态权重,来对每一轮优化中IMU和激光雷达残差的比重进行平衡。增加了动态权重后的第
$ \begin{align} \hat{\mathit{\boldsymbol{x}}}^{i} = & \mathop{\arg\min}_{{\mathit{\boldsymbol{x}}}} \Big\{ \alpha_{\omega}^{0}\sum\limits_{k \in \mathcal{W}} \| \mathit{\boldsymbol{r}}_{\omega}^{k} \| ^{2} + \alpha_{a}^{0}\sum\limits_{k \in \mathcal{A}} \| \mathit{\boldsymbol{r}}_{a}^{k} \| ^{2} + \\ & \alpha_{\mathcal{L}_{L}}^{i}\sum\limits_{j_{L} \in \mathcal{L}_{L}} \| \mathit{\boldsymbol{r}}_{\mathcal{L}_{L}}^{j_{L}} \| ^{2} + \alpha_{\mathcal{L}_{\rm s}}^{i}\sum\limits_{j_{\rm s} \in \mathcal{L}_{\rm s}} \| \mathit{\boldsymbol{r}}_{\mathcal{L}_{\rm s}}^{j_{\rm s}} \| ^{2}\Big\} \end{align} $ | (16) |
式中,
$ \begin{align} \alpha_{\mathcal{L}_{L}}^{i} & = \alpha_{\mathcal{L}_{L}}^{0} ( {r_{\mathcal{L}_{L}}^{0}}/ {r_{\mathcal{L}_{L}}^{i - 1}}) \end{align} $ | (17) |
$ \begin{align} \alpha_{\mathcal{L}_{\rm s}}^{i} & = \alpha_{\mathcal{L}_{\rm s}}^{0} ( {r_{\mathcal{L}_{\rm s}}^{0}}/ {r_{\mathcal{L}_{\rm s}}^{i - 1}}) \end{align} $ | (18) |
式中,
本文实验所用的数据集主要有以下2个:
(1) 自建数据集
在室内复杂环境下,使用自主搭建的LiDAR-IMU平台采集的数据集。自主搭建的LiDAR-IMU平台如图 3(a)所示,包括了1个Velodyne VLP-16系列激光雷达和1个MEMSICc VG800系列IMU,两个传感器以刚性连接的方式固定在同一平台上。其中,激光雷达的采集频率为10 Hz,IMU的采集频率为100 Hz,为8轴的数据输出,包括3轴加速度计数据、3轴陀螺仪数据,以及2轴重力方向数据,两个传感器之间未作严格的时间同步,同步时间误差也是标定的内容。
数据的采集方式是,通过手持该平台进行2个轴以上的旋转,采集约1 min的数据,以rosbag的形式存储下来,用于离线的标定,总共在同一室内复杂环境中采集了10个序列。数据采集环境如图 3(b)所示,为复杂的办公室场景。该场景内物体之间遮挡较为严重,平面结构较为碎片化,对于LiDAR-IMU联合标定任务来说具有一定难度。
(2) 开源数据集
该数据集为LI-Calib[14]项目开源的室外场景数据。采集平台包括了1个Velodyne VLP-16系列激光雷达、3个Xsens系列IMU和一个相机(未使用)。其中,激光雷达的采集频率为10 Hz,IMU的采集频率为400 Hz,为8轴的数据输出,两个传感器之间作了时间同步处理。
该数据集的采集场景为室外的羽毛球场区域,总共采集了5个序列。该场景较为空旷,周围建筑上的平面结构较不明显,且由于距离较远,点云分布也较为稀疏,因此该场景也存在一定的标定难度。
3.2 评价指标在评价指标的选择上,目前主要有2种方式:
(1) 标定误差。该方式需要事先估计激光雷达与IMU之间的外部参数真值。文[13]中将相机作为中间传感器,先对IMU和相机进行外部参数标定,并对相机和激光雷达进行外部参数标定,再基于以上结果推导出IMU和激光雷达的外部参数,并将之作为真值。这种获取真值的方式会引入一定误差,较难用于评价标定精度较高的算法。文[14]则是将CAD(计算机辅助设计)装配图中的各个传感器间的相对位姿作为外部参数真值,但由于传感器中心不够明确,因此该方法也存在精度上的缺陷。
(2) 标准差。文[14]中对同一场景多组序列的数据进行标定,统计标定各参数的均值和标准差,并基于标准差来评价算法的可重复性,同时可以在一定程度上反映标定算法的精度。因此,本文选择标准差作为定量实验的评价指标。
3.3 定量实验实验目的是证明引入线特征思想以及设计与几何残差收敛程度有关的动态权重确实能够提升标定算法的性能。分别在2个数据集上进行定量的分析,评价指标则采用了对多组序列的最终标定结果统计得到的标准差。本实验中选择的基准方法为LI-Calib[14],并将添加线特征后的算法命名为
(1) 自建数据集
表 1统计了上述3种算法在自建数据集上的标定结果的均值和标准差(数据的形式表示成平均值
从表 1中可以发现:在自建的数据集上,LI-Calib标定算法对平移参数的标定标准差约为2 cm,对旋转参数的标定标准差约为0.7
(2) 开源数据集
表 2统计了3种算法在开源数据集上对3个不同IMU的标定结果的均值和标准差,加粗的部分表示同一IMU的某一参数在各版本中最小的标准差。从中可以发现:对于平移参数的标定,LI-Calib标定算法的标准差约为3 mm,在增加了线特征之后,对平移参数的标定性能都能有一定程度的提升,其中,对
对于旋转参数的标定,LI-Calib标定算法的标准差约为0.02
本实验是对定量实验的补充,实验数据为自建数据集,该数据集的采集环境为办公室场景的室内环境。从图 3中可以看出,该环境内的几何结构较为复杂,且物品较多,雷达数据中平面碎片化较严重。因此针对该环境,主流的仅基于平面残差的LiDAR-IMU联合标定算法难以取得鲁棒的标定结果。而通过引入线特征的思想,对于这类复杂环境,可以提取出更丰富的结构特征,并增加几何匹配约束的数量和质量,从而提高LiDAR-IMU联合标定算法对这类复杂环境的标定精度和鲁棒性。
下面选择了自建数据集上一个最难的序列进行定性实验,该序列的难点主要体现在2个方面:一是在采集数据时,传感器平台处于较低的高度,因此环境遮挡更为严重;二是在采集数据时,传感器的旋转运动更为剧烈,因此单帧点云的运动畸变更为严重。
对标定过程中每一轮的全局点云地图结果进行可视化展示。该全局点云地图,作为标定算法每一轮优化后的中间产出,由于与标定结果中的IMU旋转曲线、平移曲线和激光雷达与IMU之间的标定外部参数直接相关,因此可以定性地反映每一轮标定算法的收敛精度。针对这个最难的序列,总共进行了15轮的迭代优化,每一轮优化后得到的全局地图如图 4所示。其中,第1~5轮为阶段1的迭代优化过程,即此阶段的激光雷达约束只包括了点面匹配约束,第5轮时的全局点云地图为阶段1迭代优化的收敛结果。而第6~15轮为阶段2的迭代优化过程,即此阶段的激光雷达约束在点面匹配约束的基础上,增加了点线匹配约束。可以发现添加了点线约束后,标定算法可以进一步收敛,最终在第15轮时,阶段2的迭代优化达到了收敛。比较第5轮和第15轮的全局点云地图结果,可以很明显地发现,引入线特征的思想可以很有效地提高LiDAR-IMU联合标定算法的标定精度和鲁棒性。
针对目前主流的LiDAR-IMU联合标定方法在遮挡较为严重的复杂环境下精度较低的问题,提出了一种鲁棒的LiDAR-IMU联合标定方法,将线特征引入到主流的标定算法中,通过同时构建线特征匹配对和面片匹配对,来完善激光雷达约束。针对优化阶段,提出双阶段迭代优化流程,并根据每轮迭代设计自适应的损失权重,使得优化能更好地收敛。利用自建数据集和开源数据集对该算法进行的测试与评估结果表明,本文算法能有效降低雷达与IMU标定时的条件要求,在雷达数据中没有多个大块平面的场景也能实现较高精度的标定。
目前的LiDAR-IMU联合标定方法只能支持对手持平台采集的离线数据进行标定,而在自动驾驶等应用中,需要实现对车载传感器的实时在线标定。为了达到这一需求,仍有许多方面的难点需要克服,比如:(1) 目前采用逐轮迭代优化的思路还难以满足实时性需求,因此需要考虑如何能快速收敛获得较为准确的标定结果;(2) 在车载平台的标定中,通常只能进行1个轴上的旋转操作(航向上的旋转),姿态变化不够丰富,这会对标定算法的收敛性造成较大影响。因此在对车载传感器进行标定时,还需要设计相应的方案来应对这些问题。
致谢: 感谢上汽集团创新研究开发总院高阶智驾团队王俊博士在本论文研究中给予的支持和帮助。
[1] |
Ye H Y, Chen Y Y, Liu M. Tightly coupled 3D LiDAR inertial odometry and mapping[C]//International Conference on Robotics and Automation. Piscataway, USA: IEEE, 2019: 3144-3150.
|
[2] |
Shan T X, Englot B, Meyers D, et al. LIO-SAM: Tightlycoupled LiDAR inertial odometry via smoothing and mapping[C]//IEEE/RSJ International Conference on Intelligent Robots and Systems. Piscataway, USA: IEEE, 2020: 5135-5142.
|
[3] |
Huang J K, Grizzle J W. Improvements to target-based 3D LiDAR to camera calibration[J]. IEEE Access, 2020, 8: 134101-134110. |
[4] |
Ishikawa R, Oishi T, Ikeuchi K. LiDAR and camera calibration using motions estimated by sensor fusion odometry[C]//IEEE/RSJ International Conference on Intelligent Robots and Systems. Piscataway, USA: IEEE, 2018: 7342-7349.
|
[5] |
Verma S, Berrio J S, Worrall S, et al. Automatic extrinsic calibration between a camera and a 3D LiDAR using 3D point and plane correspondences[C]//IEEE Intelligent Transportation Systems Conference. Piscataway, USA: IEEE, 2019: 3906-3912.
|
[6] |
Mishra S, Pandey G, Saripalli S. Extrinsic calibration of a 3DLiDAR and a camera[C]//IEEE Intelligent Vehicles Symposium. Piscataway, USA: IEEE, 2020: 1765-1770.
|
[7] |
Li M Y, Mourikis A I. Online temporal calibration for cameraIMU systems: Theory and algorithms[J]. International Journal of Robotics Research, 2014, 33(7): 947-964. |
[8] |
Furgale P, Rehder J, Siegwart R. Unified temporal and spatial calibration for multi-sensor systems[C]//IEEE/RSJ International Conference on Intelligent Robots and Systems. Piscataway, USA: IEEE, 2013: 1280-1286.
|
[9] |
Qin T, Shen S J. Online temporal calibration for monocular visual-inertial systems[C]//IEEE/RSJ International Conference on Intelligent Robots and Systems. Piscataway, USA: IEEE, 2018: 3662-3669.
|
[10] |
Glennie C. Calibration and kinematic analysis of the Velodyne HDL-64E S2 LiDAR sensor[J]. Photogrammetric Engineering & Remote Sensing, 2012, 78(4): 339-347. |
[11] |
Taylor Z, Nieto J. Motion-based calibration of multimodal sensor arrays[C]//IEEE International Conference on Robotics and Automation. Piscataway, USA: IEEE, 2015: 4843-4850.
|
[12] |
Rehder J, Beardsley P, Siegwart R, et al. Spatio-temporal laser to visual/inertial calibration with applications to hand-held, large scale scanning[C]//IEEE/RSJ International Conference on Intelligent Robots and Systems. Piscataway, USA: IEEE, 2014: 459-465.
|
[13] |
Le Gentil C, Vidal-Calleja T, Huang S D. 3D LiDAR-IMU calibration based on upsampled preintegrated measurements for motion distortion correction[C]//IEEE International Conference on Robotics and Automation. Piscataway, USA: IEEE, 2018: 2149-2155.
|
[14] |
Lü J J, Xu J H, Hu K W, et al. Targetless calibration of LiDAR-IMU system based on continuous-time batch estimation[C]//IEEE/RSJ International Conference on Intelligent Robots and Systems. Piscataway, USA: IEEE, 2020: 9968-9975.
|
[15] |
Zhang J, Singh S. LOAM: LiDAR odometry and mapping in real-time[C]//Robotics: Science and Systems. Cambridge, USA: MIT Press, 2014. DOI: 10.15607/RSS.2014.X.007.
|
[16] |
Stoyanov T, Magnusson M, Lilienthal A J. Point set registration through minimization of the L2 distance between 3D-NDT models[C]//IEEE International Conference on Robotics and Automation. Piscataway, USA: IEEE, 2012: 5196-5201.
|
[17] |
Magnusson M, Vaskevicius N, Stoyanov T, et al. Beyond points: Evaluating recent 3D scan-matching algorithms[C]//IEEE International Conference on Robotics and Automation. Piscataway, USA: IEEE, 2015: 3631-3637.
|