确定自身在周围环境内的位姿, 被称作移动机器人的定位问题。解决此问题对机器人执行自动作业非常重要。移动机器人的定位问题大体可分为两类, 位置跟踪与全局定位。
在位置跟踪问题中, 机器人已知自身位姿或者已经通过“全局定位”得到了较好的位姿估计, 此时机器人的姿态可以通过在已知环境中校正姿态误差和随时间跟踪机器人来获得。相反地, 由于全局定位问题假设机器人没有先验位姿, 要求机器人靠自身传感器数据确定自己在地图中的位姿, 因此全局定位问题更加困难。
本文所述移动机器人的全局定位问题主要体现在以下2个方面: (1) 机器人刚刚启动, 不知自身在环境内的位置, 需要获取初始位姿后才能执行进一步的定位与地图构建(SLAM)算法。(2) 机器人在运行时被“绑架”, 在传感器信息丢失的情况下被外界移动到另一区域, 此时需要重新获取位姿并进行校正。其中第(1) 种情况在机器人每次开机时都会发生, 解决移动机器人的全局定位问题, 是保证其后续巡检任务完成的关键。
本文的主要贡献如下:
•提出一种基于贡献度的点云降采样方法, 能过滤出原始点云中对全局定位帮助较大的点。
•使用上述方法改进了已有CSM算法的点云预处理和角度步长计算部分, 使其定位速度与成功率得到提高, 能够更好地应用在室内大场景中。
•在仿真环境与真实环境内进行对比实验, 表明相比于原CSM算法以及其他常用全局定位算法, 改进后算法的全局定位成功率与速度更佳。
2 相关工作(Related works) 2.1 常用全局定位方法Kim等[1]提出了SC (scan context) 描述子, 该描述子将笛卡儿坐标系的信息转换到极坐标系下计算, 具有较高的关键帧搜索速度。Wang等[2]在SC描述子的基础上加入了强度信息, 得到了精度更高的ISC(intensity scan context)描述子。Wang等[3]提出了LiDAR-Iris, 通过Log-Gabor滤波和阈值运算获取点云描述符, 匹配速度较SC描述子有所提高。ORB-SLAM、ORB2-SLAM与ORB3-SLAM算法[4-6]使用基于ORB(oriented FAST and rotated BRIEF)描述子的词袋模型进行定位。文[7] 提出了SegMatch方法, 利用基于稠密点云的描述符计算方法、结合随机森林法进行定位。Pan等[8]提出了ClusterMap方法, 其思路与SegMatch方法类似, 却不需要稠密点云。文[9] 提出了SDF(符号距离函数) 法, 该方法对栅格地图进行距离变换, 然后使用黑塞行列式法与方向梯度直方图法提取特征点并计算其描述符进行匹配。文[10] 将点云转为ODVL(optimal depth & vector length)图像来提取环境语义信息进行定位。文[11] 通过拓扑节点划分地图, 并提取子图的边界特征、空闲特征与对称性特征用以进行定位。Cao等[12]使用非监督深度学习算法提取
鉴于上述诸多限制, 本文最终选择CSM算法[17]作为机器人的全局定位方案的核心。CSM算法通过穷举所有可能的位姿来篮选最佳位姿, 能够保证位姿解算的准确性。并且, CSM算法利用分支定界的思路, 构建多分辨率栅格地图(如图 1所示)来加速穷举的过程, 保证了位姿解算的速度。
![]() |
图 1 第0、1、2、3层的栅格地图 Fig.1 Occupancy grid maps at layer 0, 1, 2 and 3 |
给定一个位姿、一帧点云与一张栅格地图, CSM算法使用式(1) 判断位姿是否准确:
$ \operatorname{score}(\boldsymbol{T})=\sum\limits_{k=1}^{K} \frac{M_{\text {nearest }}\left(\boldsymbol{T} \boldsymbol{p}_{k}\right)}{K} $ | (1) |
其中
此外, CSM算法与本文改进算法的目的均可以表示为
$ \underset{\boldsymbol{T}_{\xi} \in W}{\arg \max } \operatorname{score}\left(\boldsymbol{T}_{\xi}\right) $ | (2) |
其中,
在CSM算法中, 一个位姿由3个变量决定, 即
$ d_{\max }=\max _\limits{k=1, \cdots, K}\left|\boldsymbol{p}_{k}\right| $ | (3) |
$ \delta_{\theta}=\arccos \left(1-\frac{r^{2}}{2 d_{\max }^{2}}\right) $ | (4) |
其中,
CSM算法首先对输入点云进行降采样处理, 根据输入地图构建多分辨率栅格地图。然后, 在顶层栅格地图中穷举位姿, 将这些位姿插入一个堆栈中。接下来, 算法进入循环: 不断取出堆栈中评分最高的位姿(注意, 该位姿的评分还需要高于人为给定的阈值, 否则该位姿会被直接丢弃不作运算), 查看该位姿对应的地图是否为原始栅格地图; 若是, 则将其记录备用; 否则, 将该位姿分解为下一层栅格地图中对应的4个位姿, 重新加入堆栈中。当堆栈为空时, 循环结束。同时, 算法会输出已记录的、分数最高的位姿作为结果。
本文对传统CSM算法中的点云降采样处理以及角度步长选取步骤进行了改进, 即使用基于贡献度的方法进行降采样, 并以此计算罗列位姿时所用的角度步长。之后, 在仿真环境与实地环境中进行若干实验, 表明改进后算法的定位成功率与速度优于原CSM算法, 并能在室内大场景下得到应用。
3 基于贡献度改进的CSM算法(The improved CSM algorithm based on contribution)本文算法的总体流程可分为以下3步:
(1) 借鉴IMLS-SLAM算法[18](implicit moving least squares-SLAM)中使用的点云降采样方法, 计算点云内所有点的贡献度。
(2) 借鉴LOAM (lidar odometry and mapping) 算法[19]中的采样方法, 均匀地提取高贡献度的点, 并根据贡献度计算步骤(3) 中所用的角度步长。
(3) 使用步骤(1) 处理得到的点云和角度步长进行相关性扫描匹配, 求解出机器人的位姿。
3.1 贡献度的设计在使用CSM算法前, 通常需要对输入点云进行降采样。Cartographer [17]是最先使用CSM算法的开源框架, 该框架在此步骤中使用了其自创的自适应体素滤波。然而, 此种体素滤波简单地用1个体素格中的某随机点代替整个体素格内的点云, 由于未考虑点对全局定位中位姿解算的贡献, 因而降低了点云的质量。
受IMLS-SLAM算法的启发, 本文计算点对位姿解算的贡献度, 并以贡献度为基准进行降采样。该方法最先出自文[20], 是为了提高点到面ICP (迭代最近点) 方法的准确性与速度而提出的。点到面ICP方法可以这样描述:
$ E=\sum\limits_{i=1}^{k}\left(\left(\boldsymbol{R} \boldsymbol{p}_{i}+\boldsymbol{t}-\boldsymbol{q}_{i}\right) \cdot \boldsymbol{n}_{i}\right)^{2} $ | (5) |
其中,
当旋转矩阵
$ E=\sum\limits_{i=1}^{k}\left(\left(\boldsymbol{p}_{i}-\boldsymbol{q}_{i}\right) \cdot \boldsymbol{n}_{i}+\boldsymbol{r} \cdot\left(\boldsymbol{p}_{i} \times \boldsymbol{n}_{i}\right)+\boldsymbol{t} \cdot \boldsymbol{n}_{i}\right)^{2} $ | (6) |
由式(6) 可得, 当旋转变换的旋转轴垂直于向量
因此, 文[20] 中的研究思路是篮选出
IMLS-SLAM算法中使用的降采样方法是基于上述思路改进而来, 该方法引入了平面几何特征, 将以下9个数值作为点云降采样的依据:
$ \begin{array}{*{20}{l}} {a_{2{\text{D}}}^2\left( {{{\boldsymbol{p}}_i} \times {{\boldsymbol{n}}_i}} \right) \cdot {{\boldsymbol{X}}_{\text{v}}},}&{ - a_{2{\text{D}}}^2\left( {{{\boldsymbol{p}}_i} \times {{\boldsymbol{n}}_i}} \right) \cdot {{\boldsymbol{X}}_{\text{v}}},} \\ {a_{2{\text{D}}}^2\left( {{{\boldsymbol{p}}_i} \times {{\boldsymbol{n}}_i}} \right) \cdot {{\boldsymbol{Y}}_{\text{v}}},}&{ - a_{2{\text{D}}}^2\left( {{{\boldsymbol{p}}_i} \times {{\boldsymbol{n}}_i}} \right) \cdot {{\boldsymbol{Y}}_{\text{v}}},} \\ {a_{2{\text{D}}}^2\left( {{{\boldsymbol{p}}_i} \times {{\boldsymbol{n}}_i}} \right) \cdot {{\boldsymbol{Z}}_{\text{v}}},}&{ - a_{2{\text{D}}}^2\left( {{{\boldsymbol{p}}_i} \times {{\boldsymbol{n}}_i}} \right) \cdot {{\boldsymbol{Z}}_{\text{v}}},} \\ {a_{2{\text{D}}}^2\left| {{{\boldsymbol{n}}_i} \cdot {{\boldsymbol{X}}_{\text{v}}}} \right|,\quad }&{a_{2{\text{D}}}^2\left| {{{\boldsymbol{n}}_i} \cdot {{\boldsymbol{Y}}_{\text{v}}}} \right|,\;\;\;\;\;\;a_{2{\text{D}}}^2\left| {{{\boldsymbol{n}}_i} \cdot {{\boldsymbol{Z}}_{\text{v}}}} \right|} \end{array} $ |
其中,
虽然在降采样步骤中处理的点云为
$ \begin{array}{ll} a_{2 \mathrm{D}}^{2}\left(\boldsymbol{p}_{i} \times \boldsymbol{n}_{i}\right) \cdot \boldsymbol{X}_{\mathrm{v}}, & -a_{2 \mathrm{D}}^{2}\left(\boldsymbol{p}_{i} \times \boldsymbol{n}_{i}\right) \cdot \boldsymbol{X}_{\mathrm{v}}, \\ a_{2 \mathrm{D}}^{2}\left(\boldsymbol{p}_{i} \times \boldsymbol{n}_{i}\right) \cdot \boldsymbol{Y}_{\mathrm{v}}, & -a_{2 \mathrm{D}}^{2}\left(\boldsymbol{p}_{i} \times \boldsymbol{n}_{i}\right) \cdot \boldsymbol{Y}_{\mathrm{v}}, \\ a_{2 \mathrm{D}}^{2}\left(\boldsymbol{p}_{i} \times \boldsymbol{n}_{i}\right) \cdot \boldsymbol{Z}_{\mathrm{v}}, & -a_{2 \mathrm{D}}^{2}\left(\boldsymbol{p}_{i} \times \boldsymbol{n}_{i}\right) \cdot \boldsymbol{Z}_{\mathrm{v}}, \\ a_{2 \mathrm{D}}^{2}\left|\boldsymbol{n}_{i} \cdot\left(\boldsymbol{X}_{\mathrm{v}}+\boldsymbol{Y}_{\mathrm{v}}\right)\right| & \end{array} $ |
从3.1节的末尾可以看出, 若想计算点云中一点
(1) 定义
$ p_{k} \in V_{p_{i}}^{r} \Leftrightarrow\left|\boldsymbol{p}_{i}-\boldsymbol{p}_{k}\right| \leqslant r, \quad k=1, 2, 3, \cdots, K $ | (7) |
(2) 对原始点云中任意点
(3) 对原始点云中任意点
(4) 根据所得的
此方法可以计算点云中所有点的贡献度。
3.3 基于贡献度的均匀降采样获取贡献度后, IMLS-SLAM算法将原始点云中所有点分别按照贡献度的大小进行降序排序, 排序后获得列表
(1) 如同IMLS-SLAM算法, 分别按照本文提出的7个贡献度, 对原始点云中的每个点进行降序排序, 得到7个列表
(2) 对其中一个列表
(3) 对所有其他列表执行步骤(2)。
由图 2可得, 在借鉴LOAM算法中的方法进行选点后, 得到的点云更加均匀。图中红色点云是原始点云, 绿色点云是使用IMLS-SLAM算法中的降采样方法处理得到的点云, 黄色点云是本文降采样方法处理得到的点云。
![]() |
图 2 降采样结果比较 Fig.2 Comparison of down-sampling results |
原CSM算法使用式(4) 计算角度步长, 该方法保证在搜索过程中点云旋转
$ a_{2 \mathrm{D}}^{2}\left(\boldsymbol{p}_{i} \times \boldsymbol{n}_{i}\right) \cdot \boldsymbol{Z}_{\mathrm{v}}, \quad-a_{2 \mathrm{D}}^{2}\left(\boldsymbol{p}_{i} \times \boldsymbol{n}_{i}\right) \cdot \boldsymbol{Z}_{\mathrm{v}} $ |
在点云降采样步骤结束后, 选出点云中上述2个贡献度最大的点(此点应是对解算偏航角贡献最大的点), 将其距离雷达坐标系原点的距离记为
$ \delta_{\theta}=\arccos \left(1-\frac{r^{2}}{2 d_{\mathrm{c} \max }^{2}}\right) $ | (8) |
结合上述改进方案及原CSM算法, 可以得出本文改进CSM算法的总体流程, 如图 3所示。其中改进的部分已用绿色标出。
![]() |
图 3 改进后的CSM算法流程图 Fig.3 Flow chart of the improved CSM algorithm |
对本文改进后的CSM算法、原CSM算法、Scan Context算法以及SDF法进行了实验对比。
实验着重于定位算法的定位成功率与耗时。根据项目甲方的要求, 若定位结果与位姿真值之间的位移误差小于
实验数据统计表中的位移误差与旋转误差均为定位成功情况下的误差平均值, 计算公式如下:
$ e_{d}=\frac{1}{n} \sum\limits_{i=1}^{n}\left[\left(x_{\mathrm{GT}}^{i}-x_{\mathrm{m}}^{i}\right)^{2}+\left(y_{\mathrm{GT}}^{i}-y_{\mathrm{m}}^{i}\right)^{2}\right] $ | (9) |
$ e_{\theta}=\frac{1}{n} \sum\limits_{i=1}^{n}\left|\theta_{\mathrm{GT}}^{i}-\theta_{\mathrm{m}}^{i}\right| $ | (10) |
实验中的激光雷达数据均使用rosbag工具录制以保证每次算法运行都是相同的输入信息。
实验中全局定位算法所需的栅格地图是预先使用Cartographer算法构建的。Cartographer是Google开源的ROS系统支持的SLAM算法, 可以结合来自多个传感器(例如雷达、轮式里程计、IMU等) 的数据, 同步计算机器人的位置并绘制周围环境的地图。实际操作时, 只需要开启机器人传感器与Google提供的Cartographer程序节点, 让机器人在实验场景游历1遍即可生成地图。Cartographer算法也可以使用仿真数据集中的传感器数据构建地图。由于Cartographer已是成熟且应用广泛的SLAM算法, 其具体使用细节便不再赘述。
4.1 仿真数据集实验仿真数据集取自北京科源社区18号楼内部, 该区域长约
实验结果如图 4所示, 其中绿色轨迹代表小车运动的真实轨迹, 蓝色点代表算法解算成功的坐标, 红色点代表算法解算错误的坐标。实验数据统计如表 1所示。
![]() |
图 4 仿真环境中不同定位算法结果比较 Fig.4 Comparison of localization results in simulation environments using different algorithms |
![]() |
表 1 仿真实验数据统计 Tab. 1 Data statistics of simulation experiments |
以下是对4种算法在仿真实验中表现的分析:
原CSM算法: 虽然地图场景较大, 但是借由分支定界的思路, CSM算法可以在多分辨率地图的高层就将大多数错误位姿排除在外, 在取得较高定位成功率的同时又兼顾速度。
Scan Context算法:Scan Context是一种基于关键帧的方法。正如2.1节所说, 此类算法在正式使用前, 需要令机器人在使用场景各处游历以采集关键帧, 构建关键帧数据库。在正式使用时, 若机器人位姿与数据库中的某个关键帧所在的位姿相近, 则能很精确地完成全局定位; 反之, 则定位失败。受实验条件限制, 仿真数据集只录制了1条路径, 意味着关键帧数据库的构建与全局定位使用了同一条路径, 故在全局定位时, 算法总能找到相近的关键帧并进行定位, 因此此次试验Scan Context算法成功率较高。且Scan Context算法将当前帧与历史帧进行比较的速度很快, 算法耗时也很短。
SDF法:SDF法属于基于局部与全局环境特征匹配的方法。由于地图场景较大, 且环境特征稀疏, SDF提取的特征点较少, 匹配成功率不佳。而提取特征点的过程本身非常耗时, 算法花费时间也较长。
本文改进算法: 与原CSM算法的点云降采样步骤相比, 改进后算法的点云降采样步骤所得的点云更加稀疏,进行位姿评分时耗时更短。改进后算法所用的角度步长也长于原CSM算法中的角度步长, 可以减少位姿的总个数, 因此总体耗时比原CSM算法更短。本次实验未能体现改进算法在成功率上的优势, 可能是因为地图构建与全局定位使用了同一条路径, 导致定位难度降低。
4.2 轨迹真实值的替代在进行真实环境实验前, 需要明确机器人位姿真实值的获取方式, 以在真实环境实验中与算法定位结果作比较。SLAM领域内获取机器人位姿真实值的常用方法有2种: RTK (real-time kinematic) 定位法或者激光全站仪定位法。但是实验场景均在地下, GPS信号微弱, 无法使用RTK定位法获取小车轨迹真实值。且场地内有较多的障碍物(如柱子、墙壁等), 当激光全站仪的测量光束被障碍物阻挡时, 便无法获取小车坐标。故本文使用Cartographer算法解算机器人轨迹, 并将其作为机器人轨迹真实值的代替。为保证解算所得轨迹的准确性, 额外设计实验对Cartographer算法解算所得位姿的位移与旋转误差分别进行评估。
4.2.1 位移误差实验本节使用莱卡激光跟踪仪对Cartographer算法所求位移的误差进行评估。将激光跟踪仪的反射器(靶球) 放置在巡检机器人顶部。机器人在空间中移动时, 激光跟踪仪会自动追踪靶球的位置, 获取机器人的空间坐标。激光跟踪仪的绝对测距精度可达
实验场地选择中国计量大学现代科技学院的地下停车场。于入口处架设激光全站仪, 在激光全站仪的可视范围选取20个点, 于每一点处使用Cartographer算法解算小车坐标, 同时使用激光全站仪获取小车真实坐标。将两坐标之间的欧氏距离视作该点的位移误差。实验所用的机器人和设备如图 5所示。实验结果如图 6所示。该图分别描述了激光全站仪与Cartographer算法各自得到的坐标, 以及坐标之间的两两误差。
![]() |
图 5 位移误差实验中所用机器人及其设备 Fig.5 Robot and devices used in displacement error experiments |
![]() |
图 6 位移误差实验结果 Fig.6 Results of displacement error experiments |
实验结果表明, Cartographer算法解算的坐标误差的最小值约为
本节使用北微电子罗盘对Cartographer算法所求的旋转误差进行评估。为了防止机器人铁质机身干扰电子罗盘, 将电子罗盘置于巡检机器人前方的木条上, 且电子罗盘坐标系的
实验场地依旧选择中国计量大学现代科技学院的地下停车场。于车库内均匀选取42个点。于每一点处使用Cartographer算法解算小车的旋转信息, 同时使用电子罗盘获取小车真实的旋转信息, 将两者旋转度数之差视作该点的旋转误差。实验机器人及设备如图 7所示。
![]() |
图 7 旋转误差实验中所用机器人及其设备 Fig.7 Robot and devices used in rotation error experiments |
实验结果如图 8所示。该图分别描述了电子罗盘与Cartographer算法各自得到的旋转信息, 以及旋转角度之间的两两误差。
![]() |
图 8 旋转误差实验结果 Fig.8 Results of rotation error experiments |
实验结果表明, Cartographer算法解算的旋转误差的最小值为
综上, 实验证明Cartographer算法解算所得的位姿信息能作为小车位姿真实值的代替。
4.3 真实环境实验本节使用机器人底盘、工控机与
实验所用机器人以深圳重器公司MR1000移动底盘为基础, 使用北京纵横科技公司BPC-4501L工控机作为车载运算单元, 并搭配VLP-16激光雷达。以上设备的参数分别如表 2~4所示。
![]() |
表 2 MR1000移动机器人底盘主要参数 Tab. 2 Main parameters of MR1000 mobile robot base |
![]() |
表 3 BPC-4501L工控机主要参数 Tab. 3 Main parameters of BPC-4501L industrial computer |
![]() |
表 4 VLP-16激光雷达主要参数 Tab. 4 Main parameters of VLP-16 LiDAR |
作为实验场地的中国计量大学地下车库长约
真实环境的实验过程与仿真实验时类似,令机器人在实验场景中运行, 每隔
![]() |
图 9 真实环境中不同定位算法结果比较 Fig.9 Comparison of localization results in real environments using different algorithms |
![]() |
表 5 真实环境实验数据统计 Tab. 5 Data statistics of real scene experiments |
以下是对4种算法在真实环境实验中表现的分析。
原CSM算法:与仿真实验类似,原CSM算法的成功率较高, 但是真实环境场景比仿真实验时的场景大,算法耗时相对增加。定位失败的地点均处于拐角处, 可能是由于机器人在此处快速转弯, 致使记录的点云畸变严重, 从而影响定位。
Scan Context算法: 与仿真实验中不同,真实环境实验中,关键帧数据库构建与全局定位使用的是2条不同的路径。因此全局定位时, 机器人通常不在关键帧附近, 定位成功率较低。
SDF法: 定位成功的地点多处于场景左侧, 这是因为场景左侧存在大量车辆, 算法在此处能提取到更多特征点进行匹配, 提高了算法在此处的定位成功率。但是整体来看,
本文改进算法: 相较原CSM算法的自适应体素滤波, 本文算法采用的基于贡献度的点云降采样方案能处理得到更稀疏的点云, 并且基于贡献度计算的角度步长大于原
改进了CSM算法, 并使用改进后的算法解决机器人在环境特征稀疏的室内大场景下的全局定位问题。研究中, 首先通过计算点云内点对位姿解算的贡献度, 以贡献度为基准对输入点云进行均匀降采样, 从而改进了传统CSM算法中的点云降采样部分; 同时, 选取对偏航角解算贡献最大的点来指定CSM算法中所用的角度步长。在真实物理环境实验中, 模拟了室内大场景的环境, 实验表明本文算法在定位成功率和定位耗时上的表现优于使用传统CSM算法、Scan Context算法和SDF法的定位方案。
[1] |
Kim G, Kim A. Scan Context: Egocentric spatial descriptor for place recognition within 3D point cloud map[C]//IEEE/RSJ International Conference on Intelligent Robots and Systems. Piscataway, USA: IEEE, 2018: 4802-4809.
|
[2] |
Wang H, Wang C, Xie L H. Intensity scan context: Coding intensity and geometry relations for loop closure detection[C]//IEEE International Conference on Robotics and Automation. Piscataway, USA: IEEE, 2020: 2095-2101.
|
[3] |
Wang Y, Sun Z Z, Xu C Z, et al. LiDAR Iris for loop-closure detection[C]//IEEE/RSJ International Conference on Intelligent Robots and Systems. Piscataway, USA: IEEE, 2020: 5769-5775.
|
[4] |
Mur-Artal R, Montiel J M M, Tardos J D. ORB-SLAM: A versatile and accurate monocular SLAM system[J]. IEEE Transactions on Robotics, 2015, 31(5): 1147-1163. DOI:10.1109/TRO.2015.2463671 |
[5] |
Mur-Artal R, Tardós J D. ORB-SLAM2:An open-source SLAM system for monocular, stereo, and RGB-D cameras[J]. IEEE Transactions on Robotics, 2017, 33(5): 1255-1262. DOI:10.1109/TRO.2017.2705103 |
[6] |
Campos C, Elvira R, Rodríguez J J G, et al. ORB-SLAM3:An accurate open-source library for visual, visual-inertial, and multimap SLAM[J]. IEEE Transactions on Robotics, 2021, 37(6): 1874-1890. DOI:10.1109/TRO.2021.3075644 |
[7] |
Dubé R, Dugas D, Stumm E, et al. SegMatch: Segment based place recognition in 3D point clouds[C]//IEEE International Conference on Robotics and Automation. Piscataway, USA: IEEE, 2017: 5266-5272.
|
[8] |
Pan Z C, Chen H Y, Li S L, et al. ClusterMap building and relocalization in urban environments for unmanned vehicles[J]. Sensors, 2019, 19(19). DOI:10.3390/s19194252 |
[9] |
Millane A, Oleynikova H, Nieto J, et al. Free-space features: Global localization in 2D laser SLAM using distance function maps[C]//IEEE/RSJ International Conference on Intelligent Robots and Systems. Piscataway, USA: IEEE, 2019: 1271-1277.
|
[10] |
Yan F, Wang J W, He G J, et al. Sparse semantic map building and relocalization for UGV using 3D point clouds in outdoor environments[J]. Neurocomputing, 2020, 400: 333-342. DOI:10.1016/j.neucom.2020.02.103 |
[11] |
An S Y, Kim J. Extracting statistical signatures of geometry and structure in 2D occupancy grid maps for global localization[J]. IEEE Robotics and Automation Letters, 2022, 7(2): 4291-4298. DOI:10.1109/LRA.2022.3151154 |
[12] |
Cao J, Zeng B, Liu J Q, et al. A novel relocation method for simultaneous localization and mapping based on deep learning algorithm[J]. Computers & Electrical Engineering, 2017, 63: 79-90. |
[13] |
Sinha H, Patrikar J, Dhekane E G, et al. Convolutional neural network based sensors for mobile robot relocalization[C]//23rd International Conference on Methods & Models in Automation & Robotics. Piscataway, USA: IEEE, 2018: 774-779.
|
[14] |
Yu S K, Yan F, Zhuang Y, et al. A deep-learning-based strategy for kidnapped robot problem in similar indoor environment[J]. Journal of Intelligent & Robotic Systems, 2020, 100: 765-775. |
[15] |
Yu S K, Yan F, Yang W Z, et al. Deep-learning-based relocalization in large-scale outdoor environment[J]. IFACPapersOnLine, 2020, 53(2): 9722-9727. |
[16] |
Jin Y F, Yu L, Li G Q, et al. A 6-DOFs event-based camera relocalization system by CNN-LSTM and image denoising[J]. Expert Systems with Applications, 2021, 170. DOI:10.1016/j.eswa.2020.114535 |
[17] |
Hess W, Kohler D, Rapp H, et al. Real-time loop closure in 2D lidar SLAM[C]//IEEE International Conference on Robotics and Automation. Piscataway, USA: IEEE, 2016: 1271-1278.
|
[18] |
Deschaud J E. IMLS-SLAM: Scan-to-model matching based on 3D data[C]//IEEE International Conference on Robotics and Automation. Piscataway, USA: IEEE, 2018: 2480-2485.
|
[19] |
Zhang J, Singh S. LOAM: Lidar odometry and mapping in realtime[C]//Robotics: Science and Systems. Cambridge, USA: MIT, 2014. DOI: 10.15607/RSS.2014.X.007.
|
[20] |
Gelfand N, Ikemoto L, Rusinkiewicz S, et al. Geometrically stable sampling for the ICP algorithm[C]//4th International Conference on 3-D Digital Imaging and Modeling. Piscataway, USA: IEEE, 2003: 260-267.
|