基于恒定转弯率和加速度模型的点云多目标跟踪算法

陆军 王旭东 汲广宇 李杨

陆军, 王旭东, 汲广宇, 等. 基于恒定转弯率和加速度模型的点云多目标跟踪算法 [J]. 智能系统学报, 2025, 20(6): 1328-1338. doi: 10.11992/tis.202503034
引用本文: 陆军, 王旭东, 汲广宇, 等. 基于恒定转弯率和加速度模型的点云多目标跟踪算法 [J]. 智能系统学报, 2025, 20(6): 1328-1338. doi: 10.11992/tis.202503034
LU Jun, WANG Xudong, JI Guangyu, et al. Point cloud multitarget tracking algorithm based on the constant turn rate and acceleration model [J]. CAAI Transactions on Intelligent Systems, 2025, 20(6): 1328-1338. doi: 10.11992/tis.202503034
Citation: LU Jun, WANG Xudong, JI Guangyu, et al. Point cloud multitarget tracking algorithm based on the constant turn rate and acceleration model [J]. CAAI Transactions on Intelligent Systems, 2025, 20(6): 1328-1338. doi: 10.11992/tis.202503034

基于恒定转弯率和加速度模型的点云多目标跟踪算法

doi: 10.11992/tis.202503034
基金项目: 黑龙江省自然科学基金项目(F201123).
详细信息
    作者简介:

    陆军,教授,博士生导师,主要研究方向为计算机视觉、机器感知、 机械臂控制。科技部科技型中小企业创新基金项目评审专家,国家自然科学基金同行评议专家。编写著作5部,发表学术论文80余篇。E-mail: lujun0260@sina.com;

    王旭东,硕士研究生,主要研究方向为计算机视觉。E-mail:wangxudongheu@163.com;

    汲广宇,博士研究生,主要研究方向为计算机视觉、深度学习以及基于点云的三维目标检测。E-mail:jiguangyu94@163.com.

    通讯作者:

    陆军. E-mail:lujun0260@sina.com.

  • 中图分类号: TP391

Point cloud multitarget tracking algorithm based on the constant turn rate and acceleration model

  • 摘要: 针对简单运动模型在复杂驾驶环境多目标跟踪表现不佳的问题,提出了一种基于恒定转弯率和加速度(constant turn rate and acceleration,CTRA)模型的点云多目标跟踪方法。通过采用包含角速度信息的运动模型来描述目标的运动轨迹,可提高在目标转弯时的跟踪精度。同时,利用检测算法提供的速度信息,在轨迹更新时对物体速度进行校正,以改善在目标速度突变时的跟踪效果。此外,采用基于置信度的两阶段匹配策略,以降低低置信度检测框对跟踪结果的影响。在nuScenes验证集上对所提出的三维目标检测与跟踪算法进行了性能评估,并通过消融实验验证了算法中各模块的有效性。实验结果表明,基于CTRA模型的点云多目标跟踪算法在跟踪精度上优于基于简单模型的算法,在目标转弯和速度突变场景下的跟踪效果显著提升,且跟踪过程中身份切换次数大幅减少。

     

    Abstract: To address the suboptimal performance of simple motion models in the context of multitarget tracking within intricate driving environments, this paper proposes a point cloud-based multitarget tracking method that utilizes the constant turn rate and acceleration (CTRA) model. By incorporating angular velocity into the motion model to describe object trajectories, the method improves tracking accuracy during turning maneuvers. Furthermore, the velocity information provided by the detection algorithm is leveraged to correct object speeds during trajectory updates, enhancing robustness under sudden velocity changes. Moreover, a confidence-based two-stage matching strategy is employed to mitigate the influence of low-confidence detections on tracking results. The proposed 3D object detection and tracking algorithm is evaluated on the nuScenes validation set, and ablation studies are conducted to verify the effectiveness of each module. Experimental results demonstrate that the CTRA-based point cloud multitarget tracking algorithm exhibits superior performance in terms of tracking accuracy, significantly enhances performance in turning and abrupt velocity change scenarios, and substantially reduces identity switches during tracking when compared to simple motion models.

     

  • 得益于深度学习技术的快速进步与落地应用,智能化产品逐渐走进并深刻改善着人们的生活。其中,自动驾驶技术作为智能化产品的代表之一,正在引领交通领域的革命性变革[1]。汽车的发明为人类社会带来了极大的便利,但与此同时,汽车故障、操作不当等问题也为驾驶员的人身安全带来了潜在隐患。自动驾驶技术的核心目标之一是通过智能化手段减少人为失误,提升驾驶安全性和效率。然而,实现这一目标的关键在于构建一个高效且鲁棒的环境感知系统,而多目标跟踪作为其中的核心技术,发挥着至关重要的作用[2]

    在自动驾驶领域,多目标跟踪(multiple object tracking,MOT)通过利用检测结果持续追踪场景中多个目标的运动轨迹,为路径规划和驾驶决策等提供关键信息[3]。然而,实际驾驶场景具有多变性和不可控性,例如目标运动状态的突变、复杂背景干扰、目标遮挡等问题,使得基于简单模型的跟踪算法难以满足实际需求。此外,目标的外观、光照变化以及形变等因素进一步加大了跟踪任务的难度[4]

    本文致力于提高基于激光雷达点云的三维目标跟踪精度。激光雷达点云数据能够提供丰富的三维空间信息,有效克服二维图像数据在深度信息缺失、光照变化等方面的局限性[5]。然而,基于点云的目标跟踪仍面临诸多挑战,例如点云数据的稀疏性、目标外观变化、背景干扰等。本文通过改进现有方法或提出新方法,旨在解决这些关键问题,提升目标跟踪的鲁棒性和精度。

    在自动驾驶领域,目标跟踪与目标检测是密切相关的任务,目标跟踪需要目标检测的结果作为跟踪依据[6]。当前多目标跟踪算法可以根据检测任务和跟踪任务是否分离分为两类:检测与跟踪分离的点云多目标跟踪,以及检测与跟踪融合的点云多目标跟踪[7]

    在基于检测的点云多目标跟踪算法中,检测与跟踪任务处于分离状态,两者均只专注于自身任务[8]。其中检测算法的改变并不影响跟踪算法的使用[9],且跟踪算法常使用传统的运动预测算法来对轨迹状态进行预测。AB3DMOT (a baseline 3D multi-object tracking)[10]是点云领域首个基于检测的通用多目标跟踪算法,借鉴了二维图像跟踪算法SORT (simple online and realtime tracking)[11]的思路,构建了基于匀速运动模型的卡尔曼滤波器[12],通过卡尔曼滤波预测目标在下一帧的位置和运动状态,并结合运动模型与当前观测值对目标状态进行估计与更新。此外,算法使用三维IOU (intersection over union)[13]作为数据关联的依据,并使用匈牙利算法完成轨迹与检测目标间的关联,同时还补充了三维多目标跟踪的评价指标。 P3DMOT(pixel-guided point-cloud 3D multi-object tracking)[14]在AB3DMOT的基础上使用马氏距离[15]替换原有的三维IOU作为数据关联的度量方法,进一步提高了关联与跟踪精度。SimpleTrack[16]将现有基于检测的多目标跟踪算法系统性地分解为数据预处理、数据关联、运动模型、生命周期管理4个模块,对各模块的常见方法进行了对比和分析,并提出了改进的措施。在数据预处理模块,该算法使用非极大值抑制对检测框进行筛选来保证召回率;在数据关联模块使用三维GIOU(generalized intersection over union)作为关联依据,同时提出了一种简单高效的数据关联策略。尽管基于检测的多目标跟踪模型拥有较好的跟踪精度,但由于检测任务与跟踪任务之间呈分离状态,导致不能进行端到端的优化,同时数据关联过度严重依赖于检测结果的质量。

    PointTrackNet[17]网络直接处理原始点云数据,结合点云特征提取网络和目标关联机制,通过端到端设计实现精准的目标匹配和轨迹预测。在目标检测模块中,网络将两帧相邻点云作为输入并生成对应的候选框。在轨迹预测模块中,对前一帧点云候选框中的所有前景点的位移进行预测,并使用候选框中所有前景点预测位移的平均值作为候选框的位移预测值。在数据关联模块,通过当前帧候选框与位移后的前一帧候选框间的IOU值完成数据关联并获得关联成功目标的轨迹。CenterTrack[18]网络提出一种将目标当作点来跟踪的思想,网络使用包含多帧数据的点云作为输入,并在检测头中额外添加了一个速度回归头用于预测每个检测目标的速度;然后,将当前帧检测目标基于速度与帧间时间差值投影至上一帧点云中,最终基于检测框中心之间的距离关系使用贪心算法实现数据关联与目标跟踪。当前融合检测的点云多目标跟踪算法仅将跟踪任务作为检测框架的一个附加步骤,跟踪任务无法为目标检测提供明确的反馈信息[19]。对于在检测阶段未能成功识别的物体,跟踪阶段也无法进行有效的补偿。

    尽管检测网络已经能够达到较高的精度,但在实际自动驾驶场景中的跟踪效果并不理想[20]。这是因为实际驾驶场景往往充满了复杂性和不确定性,使得跟踪目标的运动状态随环境改变而频繁变化,这些变化增加了目标轨迹预测的难度。为了改善目标转弯情况下的跟踪性能,本文设计了一种基于恒定转弯率及加速度模型(constant turn rate and acceleration,CTRA)的点云多目标跟踪方法。该方法采用更符合目标实际运动特性的模型来提高轨迹预测的准确性,进而提升跟踪的精度和稳定性。本文还使用检测器提供的速度回归值对轨迹速度估计进行校正,改善目标速度突变情况下的跟踪效果。同时,为了降低不准确的低质量检测框对跟踪带来的影响,本文使用一种基于置信度的两阶段数据匹配策略。整个算法的流程如图1所示。

    图  1  多目标跟踪流程图
    Fig.  1  Multi-object tracking flowchart
    下载: 全尺寸图片

    整个跟踪过程共包含4部分:数据预处理模块,基于CTRA模型的轨迹预测与更新模块,基于置信度的两阶段数据关联模块以及轨迹管理模块。

    在目标检测算法中,为了提高检测结果的召回率会生成大量的检测框,且其中大部分检测框处于低可信度状态[21]。如果将检测器的所有检测结果全部交给跟踪器处理会耗费大量计算资源,同时一些低质量及重叠的检测框会导致跟踪器选择不准确的检测结果来更新轨迹,导致预测轨迹偏离物体实际运动。因此,检测结果需要经过一定的筛选后再送至跟踪器中。

    跟踪器在数据预处理模块中通常会根据检测框的分数进行筛选,然后剔除掉置信度低于分数阈值的检测框。然而,这种筛选策略可能带来一些潜在问题。首先,对于需要低分边界框来满足召回要求的指标(如average multi-object tracking accuracy,AMOTA),这种筛选方式会降低这些指标的值,不利于全面评估跟踪器的性能。其次,这种筛选方式可能会导致一些有价值的低分检测框被错误地剔除,进而降低跟踪器的准确性。非极大值抑制[22](non-maximum suppression,NMS)也是数据处理模块中常用的检测框筛选方法。与简单的阈值筛选相比,NMS具有显著优势。它能够在筛选过程中保留部分低分检测框,从而满足检测指标对召回率的要求。此外,NMS剔除的检测框通常与保留的检测框在空间上高度重叠,因此,这种方法不仅避免了有效信息的丢失,还减少了重叠检测框对跟踪过程的干扰。然而,需要注意的是,NMS的计算开销与检测框的数量呈正相关。如果直接对大量的检测结果进行NMS操作,将会耗费大量的计算资源和时间,可能导致跟踪算法的实时性能下降。

    本文算法采用了一种折中的数据处理策略。首先,通过使用一个较低的阈值分数对检测结果进行初步筛选,以快速排除那些明显不符合要求的检测框。然后,再利用NMS对剩余的检测结果进行精细筛选,以消除重叠框并保留高质量的检测框。这种筛选策略既保证了跟踪的精度又保证了跟踪的效率,实现了速度和准确性的良好平衡。

    现有多目标跟踪方法大多基于线性卡尔曼滤波算法进行轨迹预测与更新[23],通常采用匀速或匀加速模型作为运动模型。当跟踪目标保持直线运动时,这些模型能够良好地描述物体运动状态并实现准确的跟踪效果。然而,当场景中出现转弯运动等运动方向发生改变的复杂运动时,这些简单的模型往往无法满足准确的跟踪需求,导致跟踪性能下降。为了提高跟踪目标转弯场景下的多目标跟踪精度,本文算法在建立轨迹时将物体运动时的角速度信息纳入考虑范围,使用CTRA模型作为运动模型,同时使用检测器的速度回归值对轨迹估计速度进行校正。

    2.2.1   轨迹预测

    在基于CTRA模型的点云多目标跟踪器中,目标轨迹的运动状态可以通过一个十维的状态变量$ {\boldsymbol{X}=\left(x,y,\textit{z},w,l,h,v,a,\theta ,\omega \right)}^{{\mathrm{T}}} $来描述。其中,$ x\mathrm{、}y\mathrm{、} \textit{z} $表示跟踪目标中心点的三维坐标;$ w\mathrm{、}l\mathrm{、}h $分别表示跟踪目标的宽度、长度与高度;$ v\mathrm{、}a $分别表示跟踪目标的速度与加速度;$ \theta \mathrm{、}\omega $分别表示跟踪目标的转动角度与角速度。CTRA运动模型如图2所示。

    图  2  CTRA运动模型
    Fig.  2  CTRA motion model
    下载: 全尺寸图片

    由于线性卡尔曼滤波器无法直接跟踪CTRA模型描述的非线性运动,因此在轨迹的预测过程中,本文算法采用扩展卡尔曼滤波算法[24]来处理CTRA模型。扩展卡尔曼滤波通过泰勒级数对非线性函数进行泰勒展开并忽略高阶项,从而实现线性化[25]。考虑到二阶展开时计算海塞矩阵需要进行大量计算,本文采用一阶泰勒展开来近似非线性模型。轨迹预测共包括状态预测与协方差预测两部分,具体过程为

    $$ \widetilde {\boldsymbol{X}}_{k}=f\left({\boldsymbol{X}}_{k-1}\right) $$
    $$ \widetilde{\boldsymbol{P}}_{k}={\boldsymbol{F}}_{k}{\boldsymbol{P}}_{k-1}{\boldsymbol{F}}_{k}^{{\mathrm{T}}}+{\boldsymbol{Q}}_{k} $$

    式中:状态转移函数$ f\left(\cdot \right) $根据$ k-1 $时刻的轨迹估计状态$ {{\boldsymbol{X}}}_{k-1} $得到$ k $时刻的轨迹预测状态$ \widetilde {\boldsymbol{X}}_{k} $$ \widetilde {\boldsymbol{P}}_{k} $为预测得到的$ k $时刻状态误差协方差矩阵,$ {\boldsymbol{P}}_{k-1} $$ k-1 $时刻估计的误差协方差矩阵,$ {\boldsymbol{F}}_{k} $为状态转移函数的一阶偏导雅可比矩阵,$ {\boldsymbol{Q}}_{k} $是人为设置的过程噪声协方差矩阵[26]

    在状态转移函数的计算过程中,假定物体运动时的加速度与角速度不改变,同时不考虑物体在竖直方向上的运动,因此目标大小、高度、加速度及角速度均保持不变。目标在俯视角度下的中心点二维坐标$ x,y $的预测过程为

    $$ \widetilde {x}_{k}={x}_{k-1}+{\int }_{{t}_{k-1}}^{{t}_{k}}v\left(t\right)\mathrm{cos}\left(\theta \left(t\right)\right){\mathrm{d}}t $$
    $$ \widetilde {y}_{k}={y}_{k-1}+{\int }_{{t}_{k-1}}^{{t}_{k}}v\left(t\right)\mathrm{sin}\left(\theta \left(t\right)\right){\mathrm{d}}t $$

    假定跟踪过程中两帧点云数据之间时间间隔$ \Delta t={t}_{k}-{t}_{k-1} $,目标速度$ v $与角度$ \theta $的预测过程为

    $$\begin{gathered} \widetilde {v}_{t}={v}_{t-1}+a\Delta t \\ \widetilde {\theta }_{t}={\theta }_{t-1}+\omega \Delta t \end{gathered} $$

    使用扩展卡尔曼滤波器进行轨迹预测时需要计算雅可比矩阵,对状态方程的每一个状态量$ x,y,\textit{z},w,l,h,v,a,\theta ,\omega $求偏导得到雅可比矩阵$ {\boldsymbol{F}}_{{k}}=\dfrac{\partial f}{\partial {\boldsymbol{X}}_{{k}}} $的计算过程为

    $$ {{\boldsymbol{F}}_k} = \left[ {\begin{array}{*{20}{c}} 1 & 0 & 0 & 0 & 0 & 0 & {\dfrac{{\partial {x_{k + 1}}}}{{\partial {v_k}}}} & {\dfrac{{\partial {x_{k + 1}}}}{{\partial {a_k}}}} & {\dfrac{{\partial {x_{k + 1}}}}{{\partial {\omega _k}}}} & {\dfrac{{\partial {x_{k + 1}}}}{{\partial {\theta _k}}}} \\ 0 & 1 & 0 & 0 & 0 & 0 & {\dfrac{{\partial {y_{k + 1}}}}{{\partial {v_k}}}} & {\dfrac{{\partial {y_{k + 1}}}}{{\partial {a_k}}}} & {\dfrac{{\partial {y_{k + 1}}}}{{\partial {\omega _k}}}} & {\dfrac{{\partial {y_{k + 1}}}}{{\partial {\theta _k}}}} \\ 0 & 0 & 1 & 0 & 0 & 0 & 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 1 & 0 & 0 & 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 & 1 & 0 & 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 & 0 & 1 & 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 & 0 & 0 & 1 & {\Delta t} & 0 & 0 \\ 0 & 0 & 0 & 0 & 0 & 0 & 0 & 1 & 0 & 0 \\ 0 & 0 & 0 & 0 & 0 & 0 & 0 & 0 & 1 & {\Delta t} \\ 0 & 0 & 0 & 0 & 0 & 0 & 0 & 0 & 0 & 1 \end{array}} \right] $$

    其中参数公式为

    $$ \dfrac{\partial {{x}}_{{k}+1}}{\partial {{v}}_{{k}}}=\dfrac{\mathrm{sin}\left(\mathrm{\Delta }{t}\mathrm{\omega }+\mathrm{\theta }\right)-\mathrm{sin}\mathrm{\theta }}{\mathrm{\omega }} $$
    $$ \dfrac{\partial {x}_{k+1}}{\partial {a}_{k}}=\dfrac{\Delta t\omega \mathrm{sin}\left(\Delta t\omega +\theta \right)-\mathrm{cos}\theta +\mathrm{cos}\left(\Delta t\omega +\theta \right)}{{\omega }^{2}} $$
    $$ \begin{gathered} \dfrac{\partial {x}_{k + 1}}{\partial {\omega }_{k}} = \dfrac{a\Delta {t}^{2}\mathrm{cos}\left(\Delta t\omega + \theta \right) + \Delta tv\mathrm{cos}\left(\Delta t\omega + \theta \right)}{\omega } + \\ \dfrac{v\mathrm{sin}\theta - v\mathrm{sin}\left(\Delta t\omega + \theta \right)}{{\omega }^{2}} + \\ \dfrac{2a\left(\mathrm{cos}\theta - \mathrm{cos}\left(\Delta t\omega + \theta \right) - \Delta t\omega \mathrm{sin}\left(\Delta t\omega + \theta \right)\right)}{{\omega }^{3}} \end{gathered} $$
    $$ \begin{gathered} \dfrac{\partial {x}_{k + 1}}{\partial {\theta }_{k}} = \\ \dfrac{a\mathrm{sin}\theta - \omega v\mathrm{cos}\theta - a\mathrm{sin}\left( \Delta t\omega + \theta \right) + \left( {\Delta t\omega a} + {\omega v} \right)\mathrm{cos}\left( \Delta t\omega + \theta \right)}{{\omega }^{2}} \end{gathered}$$
    $$ \dfrac{\partial {y}_{k+1}}{\partial {v}_{k}}=\dfrac{\mathrm{cos}\theta -\mathrm{cos}\left(\Delta t\omega +\theta \right)}{\omega } $$
    $$ \dfrac{\partial {y}_{k+1}}{\partial {a}_{k}}=\dfrac{-\Delta t\omega \mathrm{cos}\left(\Delta t\omega +\theta \right)-\mathrm{sin}\theta +\mathrm{sin}\left(\Delta t\omega +\theta \right)}{{\omega }^{2}} $$
    $$ \begin{gathered} \dfrac{\partial {y}_{k+1}}{\partial {\omega }_{k}}=\dfrac{a\Delta {t}^{2}\mathrm{sin}\left(\Delta t\omega +\theta \right)+\Delta tv\mathrm{sin}\left(\Delta t\omega +\theta \right)}{\omega }-\\ \dfrac{v\mathrm{sin}\theta -v\mathrm{cos}\left(\Delta t\omega +\theta \right)}{{\omega }^{2}}+\\ \dfrac{2a\left(\mathrm{sin}\theta -\mathrm{sin}\left(\Delta t\omega +\theta \right)-\Delta t\omega \mathrm{cos}\left(\Delta t\omega +\theta \right)\right)}{{\omega }^{3}} \end{gathered}$$
    $$ \begin{gathered} \dfrac{\partial {y}_{k+1}}{\partial {\theta }_{k}}=\\ \dfrac{ - a\mathrm{cos}\theta - \omega v\mathrm{sin}\theta + a\mathrm{cos}\left( \Delta t\omega + \theta \right) + \left( {\Delta t\omega a} + {\omega v} \right)\mathrm{sin}\left( \Delta t\omega + \theta \right)}{{\omega }^{2}} \end{gathered}$$

    此外轨迹预测过程中,每个类别的过程噪声协方差矩阵$ {{\boldsymbol{Q}}}_{k} $均设为单位矩阵,而初始误差协方差矩阵则每个类单独设置,其中小汽车类的的初始误差协方差矩阵$ {\boldsymbol{P}}_{0\left({\mathrm{car}}\right)} $

    $$ {{\boldsymbol{P}}_{0({\mathrm{car}})}} = \left[ {\begin{array}{*{20}{c}} 4&0&0&0&0&0&0&0&0&0 \\ 0&4&0&0&0&0&0&0&0&0 \\ 0&0&4&0&0&0&0&0&0&0 \\ 0&0&0&4&0&0&0&0&0&0 \\ 0&0&0&0&4&0&0&0&0&0 \\ 0&0&0&0&0&4&0&0&0&0 \\ 0&0&0&0&0&0&{1\;000}&0&0&0 \\ 0&0&0&0&0&0&0&4&0&0 \\ 0&0&0&0&0&0&0&0&1&0 \\ 0&0&0&0&0&0&0&0&0&{0.1} \end{array}} \right] $$
    2.2.2   轨迹更新

    使用扩展卡尔曼滤波算法能够带来平滑的速度预测效果,这使得跟踪器在目标恒定运动的情况中拥有较好的跟踪表现。但当目标速度发生突变时,轨迹估计值往往与实际值存在较大误差,这种偏差可能导致轨迹与目标匹配失败,从而造成身份切换并降低跟踪精度。与滤波算法相比,此算法在检测过程中利用了多帧点云信息,能够在大部分目标速度突变情况下提供更接近真实情况的速度估计值。为了改善目标速度突变情况下的跟踪效果,本算法将检测器提供的目标速度(ground truth,GT)信息作为测量值,当检测目标(Detect)与预测轨迹(Predict)匹配成功后,滤波算法会综合考虑轨迹预测速度及检测器测量速度对轨迹实际速度进行估计。速度校正更新过程如图3所示(T表示当前帧)。

    图  3  速度校正示意
    Fig.  3  Velocity correction schematic
    下载: 全尺寸图片

    整个轨迹更新过程可分为3个主要部分:求取卡尔曼增益、状态更新以及协方差更新。具体过程为

    $$ {{\boldsymbol{K}}_k} = \dfrac{{{\widetilde {\boldsymbol{P}}_k}{\boldsymbol{H}}_k^{\mathrm{T}}}}{{{{\boldsymbol{H}}_k}{\widetilde {\boldsymbol{P}}_k}{\boldsymbol{H}}_k^{\mathrm{T}} + {{\boldsymbol{R}}_k}}} $$
    $$ {{\boldsymbol{X}}_k} = \widetilde {\boldsymbol{X}}_k + {{\boldsymbol{K}}_k}\left( {{{\boldsymbol{Z}}_k} - {{\boldsymbol{H}}_k}\widetilde {\boldsymbol{X}}_k} \right) $$
    $$ {{\boldsymbol{P}}_k} = \left( {{\boldsymbol{I}} - {{\boldsymbol{K}}_k}{{\boldsymbol{H}}_k}} \right){\widetilde {\boldsymbol{P}}_k} $$

    在轨迹更新过程中,求取卡尔曼增益$ {{\boldsymbol{K}}_k} $是其关键基础步骤。增益的计算依赖于转换矩阵$ {{\boldsymbol{H}}_k} $和测量误差协方差矩阵$ {{\boldsymbol{R}}_k} $。其中转换矩阵$ {{\boldsymbol{H}}_k} $用于将目标状态变量从状态空间转换至测量空间,而测量误差协方差矩阵$ {{\boldsymbol{R}}_k} $用于表示测量值的不确定性。得到卡尔曼增益后,滤波算法可通过融合轨迹预测状态$ {\widetilde {\boldsymbol{X}}_k} $及其匹配目标的测量状态$ {{\boldsymbol{Z}}_k} $对轨迹信息进行调整,生成$ k $时刻的估计轨迹状态$ {{\boldsymbol{X}}_k} $。同时算法还会通过更新得到$ k $时刻的估计状态误差协方差矩阵$ {{\boldsymbol{P}}_k} $,为下一时刻的轨迹预测提供必要的信息,从而迭代地优化轨迹的精度。具体轨迹更新过程中$ {{\boldsymbol{H}}_k} $$ {{\boldsymbol{R}}_k} $

    $$ {{\boldsymbol{H}}_k} = \left[ {\begin{array}{*{20}{c}} 1 & 0 & 0 & 0 & 0 & 0 & 0 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 & 0 & 0 & 0 & 0 & 0 & 0 \\ 0 & 0 & 1 & 0 & 0 & 0 & 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 1 & 0 & 0 & 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 & 1 & 0 & 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 & 0 & 1 & 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 & 0 & 0 & {\cos \theta } & 0 & 0 & { - v\sin \theta } \\ 0 & 0 & 0 & 0 & 0 & 0 & {\sin \theta } & 0 & 0 & {v\cos \theta } \\ 0 & 0 & 0 & 0 & 0 & 0 & 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 0 & 0 & 0 & 0 & 0 & 0 & 1 \end{array}} \right] $$
    $$ {{\boldsymbol{R}}_k} = \left[ {\begin{array}{*{20}{c}} 1&0&0&0&0&0&0&0&0&0 \\ 0&1&0&0&0&0&0&0&0&0 \\ 0&0&1&0&0&0&0&0&0&0 \\ 0&0&0&1&0&0&0&0&0&0 \\ 0&0&0&0&1&0&0&0&0&0 \\ 0&0&0&0&0&1&0&0&0&0 \\ 0&0&0&0&0&0&1&0&0&0 \\ 0&0&0&0&0&0&0&1&0&0 \\ 0&0&0&0&0&0&0&0&1&0 \\ 0&0&0&0&0&0&0&0&0&1 \end{array}} \right] $$

    跟踪算法的数据关联模块包括两个主要步骤:相似性度量和匹配。其中相似性用于描述检测目标与已有轨迹之间的关联程度,并以此作为后续匹配策略的依据[27]。本文使用3D GIOU作为检测目标与预测轨迹间的关联指标,并使用一种两阶段的匹配策略完成检测目标与轨迹的互相匹配。

    2.3.1   数据关联指标

    数据关联模块的核心任务是在不同帧之间对检测到的目标进行匹配,从而实现持续跟踪。为了完成这一任务,模块需要根据$ t - 1 $时刻的预测轨迹结果与$ t $时刻的检测结果对不同帧目标之间的匹配程度进行评估。为了确保准确而稳定的目标跟踪,评估指标通常基于多种因素,如目标的位置与形状等。

    IOU是多目标跟踪算法中常用的关联程度评估指标,其使用预测框与检测框的重叠程度作为评估标准。虽然IOU在计算过程中综合考虑了物体的位置与形状信息,但是忽略了距离信息带来的影响。当跟踪目标速度较快或形状较小时,其在前后帧所处的位置在空间上不存在重叠关系,相应的IOU值计算结果为0,此时跟踪算法不能完成目标在帧间的匹配。为了解决上述问题,本文算法采用GIOU作为数据关联的主要指标,GIOU示意图如图4所示。

    图  4  GIOU示意
    Fig.  4  GIOU schematic
    下载: 全尺寸图片

    GIOU的计算式为

    $$ {G_{{\mathrm{GIOU}}}} = {I_{{\mathrm{IOU}}}} - \dfrac{{C - \left( {A \cup B} \right)}}{C} $$

    它在IOU的基础上进行了扩展,不仅考虑了预测框与目标框的重叠程度,还引入了最小闭包区域(即同时包含两者的最小外接矩形)来反映框之间的位置关系。计算时,首先确定最小闭包区域,然后计算该区域中未被两个框覆盖的部分所占比重,最后从IOU值中减去该比重得到GIOU值。GIOU通过最小闭包区域解决了IOU在框不重叠时无法提供梯度信息的问题,能够更全面地反映框的相对位置和大小关系,增强了模型的鲁棒性和收敛速度,适用于复杂任务场景。

    2.3.2   两阶段匹配策略

    检测与轨迹之间的数据匹配通常可以采用两种方法。第1种是将问题构建为一个二分匹配问题,并利用匈牙利算法来完成匹配。第2种方法是使用贪心算法,通过迭代方式关联最近的检测与轨迹对。贪心算法的时间复杂度为$ O\left( {{n^2}} \right) $,相较于匈牙利算法的时间复杂度$ O\left( {{n^3}} \right) $而言,它在匹配过程中的时间消耗更少。然而,匈牙利算法能够提供全局最优解,而贪心算法则只能通过迭代方式寻求局部最优解。考虑到本文的检测结果中每类检测目标的数量并不多,以及跟踪过程中对匹配准确性的高要求,最终选择使用匈牙利算法作为数据匹配的方法。

    通过GIOU计算得到检测与轨迹的关联程度后,需要将其转为匹配代价$C_{i,j} $,本文算法转化过程为

    $$ C{_{i,j}} = 1 - {G_{{\mathrm{GIOU}}}}\left( {{T_i},{D_j}} \right) $$

    假定轨迹数目为$ N $,检测数目为$ M $,最终得到的代价矩阵大小为$ N \times M $。代价矩阵中的每个元素代表了一个轨迹和一个检测之间的匹配代价,如矩阵中第$ i $$ j $列的值$ C{_{i,j}} $代表了轨迹$ {T_i} $与检测$ {D_j} $间的匹配代价,匈牙利算法可根据代价矩阵找到全局最小代价匹配。在根据代价矩阵进行匈牙利匹配的过程中,代价值是其唯一考虑的因素,而检测的置信度高低并不影响最终的匹配结果。但在现实检测场景中,低置信度的检测通常意味着目标可能存在遮挡或距离较远,导致获取的特征信息不全面,进而影响检测框信息的准确性。这种情况下产生的不准确检测框,可能会导致错误的匹配结果或在轨迹更新时影响轨迹的准确度。为缓解低置信度检测在跟踪过程中的潜在负面效果,本文算法使用一种基于置信度的两阶段匹配策略,策略的伪代码如下算法所示。

    算法 二阶段关联的伪代码

    输入 $ t - 1 $时刻轨迹 $ {T_{t - 1}} $$ t $时刻高分检测结果$ {D_{{{{\mathrm{high}}}}}} $$ t $ 时刻低分检测结果$ {D_{{{{\mathrm{low}}}}}} $

    输出 $ t $时刻轨迹$ {T_t} $

    1) for track in $ {T_{t - 1}} $ do

    2) track←ExtendKalmerFilterPredict(track)

    3) end

    4) /* 第一阶段关联 */

    5) 初始化$ {T_t} $$\varnothing $

    6) 使用GIOU关联 $ {T_{t - 1}} $$ {D_{{{{\mathrm{high}}}}}} $

    7) $ {D_{{\mathrm{remain}}}} $← remaing detection boxes from $ {D_{{\mathrm{high}}}} $

    8) $ {T_{{\mathrm{associated}}}} $← associated success tracks from $ {T_{t - 1}} $

    9) for track in $ {T_{{\mathrm{associated}}}} $ do

    10) track←ExtendKalmerFilterUpdate(track,$ {d_{{\mathrm{track}}}} $)

    11) $ {T_t} $$ {T_t} $ ∪ {track}

    12) end

    13) /* 第二阶段关联 */

    14) 使用GIOU关联$ {T_{{\mathrm{remain}}}} $$ {D_{{\mathrm{low}}}} $

    15) $ {D_{{\mathrm{remain}}}} $$ {D_{{\mathrm{remain}}}} $ ∪ remaing detection boxes from $ {D_{{\mathrm{low}}}} $

    16) $ {T_{{\mathrm{re - remain}}}} $← remaing tracks from $ {T_{{\mathrm{remain}}}} $

    17) $ {T_{{\mathrm{associated}}}} $← associated success tracks from $ {T_{{\mathrm{remain}}}} $

    18) for track in $ {T_{{\mathrm{associated}}}} $ do

    19) $ {T_t} $$ {T_t} $ ∪ {track}

    20) end

    21) for track in $ {T_{{\mathrm{re - remain}}}} $ do

    22) track←TrackPenalty (track)

    23) $ {T_t} $$ {T_t} $ ∪ {track}

    24) end

    25) for $ d $ in $ {D_{{\mathrm{remain}}}} $ do

    26) track←NewTrack($ d $)

    27) $ {T_t} $$ {T_t} $ ∪ {track}

    28) end

    29) return $ {T_t} $

    首先初始化当前时刻轨迹集合$ {T_t} $为空集,接着对上一时刻轨迹集合$ {T_{t - 1}} $中的每条轨迹,运用扩展卡尔曼滤波进行状态预测;随后进入第1阶段匹配,利用广义交并比(GIOU)计算轨迹与当前时刻高置信度检测结果$ {D_{{\mathrm{high}}}} $的相似度矩阵,应用匈牙利算法实现全局最优匹配,将匹配成功的轨迹用对应观测值更新状态后加入$ {T_t} $,分离出未匹配的高分检测$ {D_{{\mathrm{remain}}}} $;之后开展第2阶段匹配,针对第1阶段未匹配的轨迹$ {T_{{\mathrm{remain}}}} $,计算其与低置信度检测结果$ {D_{{\mathrm{low}}}} $的相似度,再次使用匈牙利算法进行匹配,更新未匹配检测集合并记录仍未匹配的轨迹$ {T_{{\mathrm{re - remain}}}} $;在轨迹管理阶段,对$ {T_{{\mathrm{re - remain}}}} $施加惩罚(如降低置信度)后加入$ {T_t} $,将未匹配的检测$ {D_{{\mathrm{remain}}}} $初始化为新轨迹并加入$ {T_t} $;最终输出更新后的轨迹集合$ {T_t} $。此流程通过分阶段处理不同置信度检测并结合先进滤波与匹配方法,有效提升了目标跟踪的准确性与鲁棒性。

    在两阶段匹配策略中,本文算法通过设定置信度阈值,将检测分为高置信度和低置信度两类。在第1阶段匹配过程中,优先将高置信度检测与现有轨迹匹配,并基于匹配结果更新轨迹。在匹配过程的第2阶段,使用低置信度对第1阶段中未匹配成功的轨迹进行再次匹配。不过,在这一阶段,不直接用这些低置信度检测来更新轨迹,而是直接使用轨迹的预测值作为更新结果。这种匹配策略能够维护轨迹更新的准确性,同时减少低置信度检测带来的干扰。

    多目标跟踪算法中,轨迹管理模块负责维护和更新跟踪对象的状态,其主要功能包括轨迹初始化、轨迹更新、轨迹终止和轨迹输出。

    轨迹初始化 当检测目标无法与现有轨迹匹配时,轨迹管理模块会创建一个新的轨迹实例。初始化过程通常包括为新轨迹分配唯一标识符(ID)和初始化其状态(包括位置、速度、尺寸等)。初始化的轨迹在一定帧数内连续与检测目标匹配成功后将被激活并合并到仍然活跃的轨迹中。

    轨迹更新 本文算法使用基于置信度的两阶段匹配算法进行数据匹配。第1阶段匹配成功的轨迹利用高分检测框基于扩展卡尔曼滤波进行状态更新,第2阶段匹配成功的轨迹则直接将其预测结果作为更新结果。而对于未匹配成功的轨迹,将对其进行惩罚,包括降低置信度及增加未匹配计数次数。

    轨迹终止 本文算法通过一种基于计数的方法来决定是否丢弃轨迹。具体来说,如果初始化轨迹未能成功匹配检测目标或活跃轨迹在连续若干帧中都未能与检测到的目标匹配并进行更新,该轨迹便会被终止。此外,当轨迹年龄(匹配成功次数)达到一定数目时也会被终止。一旦轨迹被终止,其不会再参与到后续的数据匹配过程中。

    轨迹输出 获取当前帧的所有轨迹后,需要将更新的轨迹(估计的运动状态)、新初始化的轨迹,以及部分未匹配成功的轨迹一同输出到结果文件中。其中,未匹配成功的轨迹输出的应该为其预测状态结果。

    nuScenes数据集[28]中共包含750个训练集场景、150个验证集场景和150个测试集场景。每个场景包含的点云样本可分为关键帧点云样本及非关键帧点云样本,数据集仅对关键帧点云样本中的检测目标进行了标注。所有标注物可分为23个类别,包含小汽车、自行车、卡车及行人等。标注信息除了三维检测框外,还包括标注物的可见度与属性等信息,能够对同类物体标注物进行进一步的区分。与此同时,nuScenes数据集中采样场景在空间与时间上保持连续,可用于评估多目标跟踪算法的性能。

    nuScenes数据集使用AMOTA (average multi-object tracking accuracy)和AMOTP (average multi-object tracking precision)指标分别从准确度与精确度两个方面对跟踪器的性能进行评估。这两个指标是传统多目标评价指标MOTA和MOTP随召回率变化曲线的积分结果,在实际计算中通过插值积分来简化计算过程。此外,多目标跟踪任务引入了一个新的统计指标IDS(identity switches),该指标用于统计跟踪过程中身份切换的次数。在跟踪过程中,如果某个轨迹T在第t帧之前全部与同一目标关联,但在t+1帧时轨迹与另一目标成功关联,导致轨迹关联的目标ID发生变化,这就意味着发生了一次身份切换。每当发生这样的情况,IDS的计数就会增加1。值得注意的是,即使身份切换之后轨迹一直与错误目标关联,但只要关联目标ID保持一致,那么IDS数目不会增加。

    本节在nuScenes验证集上对本文跟踪算法的性能进行验证。实验过程中使用基于特征流的检测结果作为跟踪的基础,共完成对自行车、小汽车、公交车、摩托车、行人、电车和卡车共7类目标的跟踪任务。为了达到最佳的跟踪效果,跟踪过程中为每个目标类别设置了不同的跟踪参数。在基于置信度筛选检测框阶段,各类别的置信度筛选阈值为0.1、0、0.1、0.1、0.1、0.1、0.1、0。之后在NMS过程中,使用GIOU作为度量标准,每个类单独进行筛选,分数阈值统一设置为0.08。跟踪过程中,所有类别均采用CTRA模型并使用GIOU作为关联依据。在数据关联模块中,各类别关联代价最大值分别为1.51、1.28、1.33、1.42、1.59、1.25、1.20,超过最大值的匹配关系不会被考虑。在轨迹更新模块中,由于本文采用的两阶段关联策略,当各类别关联成功的检测框置信度分别低于0.19、 0.1、0.16、0.19、 0.18、 0.12、0.12时其信息不会被用于轨迹更新。

    为了验证本文跟踪算法的性能,本节将其与其他常用的点云多目标跟踪算法进行了比较。为确保实验的公平性,所有多目标跟踪算法均采用统一的基于特征流算法检测结果作为跟踪的依据。本文方法与工业界常用点云多目标跟踪方法SimpleTrack的跟踪可视化对比结果如图5所示。对比图中第1行为SimpleTrack跟踪结果,第2行为本文算法跟踪结果,第3行为跟踪场景对应的RGB图片。图中绿色框表示真实标注框,其他颜色框为不同类别的跟踪结果且其左上角有对应的跟踪ID,其中用红色圈出的为本次对比跟踪的对象。

    图  5  三维多目标跟踪对比
    Fig.  5  Comparison of 3D multi-object tracking
    下载: 全尺寸图片

    在场景Ⅰ中,跟踪车辆在转弯过程中因障碍物遮挡导致检测器漏检,经过短暂的消失后目标再次出现在场景中并成功被检测。在此过程中,SimpleTrack算法因为无法根据检测结果对车辆轨迹进行更新,错误地判断车辆在消失期间仍沿消失前的方向直线前进。当车辆再次出现时,因为算法预测的轨迹与车辆位置相差太远导致匹配失败,其被视为一个新的跟踪目标并被重新赋予跟踪ID。而本文算法则充分考虑了跟踪目标的角速度信息,在车辆消失期间,算法能够按照其消失前的角速度持续预测其转弯运动。因此,当车辆重新出现时,算法预测的轨迹与车辆位置接近并重新关联,确保了目标跟踪ID的一致性。

    在场景Ⅱ中,当道路两侧的行人在采集车辆驶离后朝着对侧行进时,出现了多个跟踪目标相互靠近的情况,这些目标之间的距离变得极为接近。在此过程中,SimpleTrack方法将轨迹与错误的检测框匹配后,导致轨迹对应的检测目标没有与轨迹匹配成功而被算法视为新的跟踪目标并赋予新的跟踪ID。而本文算法在减小低质量检测框带来影响的同时,使用检测器信息进行速度校正,其产生的轨迹信息更加准确,因此成功保持了目标在整个跟踪过程中的ID一致性。

    本文算法与其他点云多目标跟踪方法对比结果如表1所示。从表中可以看出,在所有点云多目标跟踪算法中,本文算法在nuScenes跟踪基准验证集上排名第一,其平均多目标跟踪准确率超过了大多数3DMOT方法。此外,在保证高跟踪准确率的同时,本算法在整个跟踪过程中发生身份切换的次数最少,这表明算法能提供稳定的跟踪效果。因此,该算法不仅拥有强于AB3DMOT、SimpleTrack和L-ByteTrack等基于纯点云检测的多目标跟踪算法的跟踪效果,在使用同样点云跟踪结果且没有图像数据输入的情况下,在AMOTA和IDS指标上还超越了EagerMOT[29]及 CBMOT(camera-based multi-object tracking)[30]等多模态跟踪器。而与基于学习的跟踪方法CenterPoint、ShaSTA和LiDAR MOT-DETR相比,该算法在低计算开销的情况下实现了更高跟踪准确度。

    表  1  跟踪算法对比结果
    Table  1  Comparison results of tracking algorithms
    算法 检测器 输入 AMOTA↑/% AMOTP↓/cm IDS↓
    AB3DMOT 基于特征流的目标检查算法 3D 60.6 56.6 721
    SimpleTrack 基于特征流的目标检查算法 3D 71.0 57.0 587
    CenterPoint 基于特征流的目标检查算法 3D 70.6 63.5 535
    EagerMOT 基于特征流的目标检查算法+Cascade R-CNN 2D+3D 72.1 57.4 398
    CBMOT 基于特征流的目标检查算法+CenterTrack 2D+3D 72.8 49.8 474
    L-ByteTrack 基于TransFusion-L的检测器 3D 70.1 54.9 488
    ShaSTA 基于改进CenterPoint的检测器 3D 69.6 54.0 473
    LiDAR MOT-DETR 基于特征流的目标检查算法 3D 73.6 48.6 404
    CTRA 基于特征流的目标检查算法 3D 74.6 58.2 252
    注:表中加粗的数字表示该指标在对应列中的最优结果。

    虽然跟踪准确度与身份切换次数均优于其他算法,但是跟踪精度较其他算法却没有明显的提高。这是因为场景中的一些静止目标轨迹由于检测误差在跟踪过程中角速度值不再为0,使得其在跟踪结果中围绕中心点不停摇摆,降低了跟踪精度,后续考虑针对该问题进行优化。

    针对实际自动驾驶场景中的跟踪情况,基于CTRA模型的跟踪算法在不同模块中采取了多种方法,包括使用CTRA模型、轨迹速度校正及两阶段匹配策略。为了验证这些方法的可行性及有效性,本小节设计了相应的消融实验。实验结果如表2所示,其中a、b、c算法分别表示在基准算法CenterPoint的基础上添加某些模块。其中a添加了CTRA模型,b在a的基础上又添加了速度校正模块,最后c在b的基础上添加了二阶段关联模块。

    表  2  算法消融实验对比结果
    Table  2  Ablation study results of the algorithm
    算法 CTRA 速度校正 二阶段关联 AMOTA↑/% AMOTP↓/cm IDS↓
    基准算法 0 0 0 72.1 61.5 591
    a 1 0 0 73.4 61.1 508
    b 1 1 0 74.2 59.3 253
    c 1 1 1 74.8 58.2 252

    表2中可以看出使用CTRA模型后,算法平均跟踪准确度上升了1.3%。这表明CTRA模型能够更好地在转弯场景下描述物体轨迹运动信息,改善跟踪效果。在此基础上再加入速度校正后,算法的平均跟踪精度再次上升0.8%,同时跟踪过程中身份切换的次数大幅下降了255次。这表明利用检测器信息进行速度校正能够在目标速度突变时使轨迹估计速度更接近目标真实速度,并以此提供更准确轨迹预测来提高数据匹配与跟踪效果。最后再加入二阶段关联策略后,由于一些不准确的低置信度检测框信息对跟踪带来的影响被降低,算法平均跟踪准确度再次上升0.6%。

    本节还对比了数据处理模块中检测框的筛选方法,实验结果(表3)表明,本文的综合筛选方法在保证精度与召回率的同时,显著减少了筛选时间。

    表  3  数据处理方式对比结果
    Table  3  Comparison of data processing methods
    方法 AMOTA↑/% IDS↓ 运行时间↓/s
    置信度过滤 71.8 323 0.006
    NMS 74.1 257 0.087
    置信度过滤+NMS 74.6 252 0.048

    针对实际驾驶场景复杂多变导致跟踪目标运动状态变化问题,本文提出一种基于CTRA模型的点云多目标跟踪算法。该模型在描述目标运动轨迹时考虑了物体的角速度信息,能够有效改善目标转弯时的跟踪精度;轨迹更新时,算法还使用检测器提供的速度信息对目标速度估计进行校正,并借此改善目标速度突变时的跟踪精度。最后,设计一种基于置信度的两阶段匹配策略,有效降低位置回归不准确的低置信度检测框在轨迹更新时对跟踪带来的影响。

    实验结果表明,基于CTRA模型的点云多目标跟踪算法使得目标转弯和速度突变场景下的跟踪性能得到了明显改善,同时跟踪过程中身份切换次数大幅降低,算法性能优于其他基于简单模型的点云多目标跟踪算法。

  • 图  1   多目标跟踪流程图

    Fig.  1   Multi-object tracking flowchart

    下载: 全尺寸图片

    图  2   CTRA运动模型

    Fig.  2   CTRA motion model

    下载: 全尺寸图片

    图  3   速度校正示意

    Fig.  3   Velocity correction schematic

    下载: 全尺寸图片

    图  4   GIOU示意

    Fig.  4   GIOU schematic

    下载: 全尺寸图片

    图  5   三维多目标跟踪对比

    Fig.  5   Comparison of 3D multi-object tracking

    下载: 全尺寸图片

    表  1   跟踪算法对比结果

    Table  1   Comparison results of tracking algorithms

    算法 检测器 输入 AMOTA↑/% AMOTP↓/cm IDS↓
    AB3DMOT 基于特征流的目标检查算法 3D 60.6 56.6 721
    SimpleTrack 基于特征流的目标检查算法 3D 71.0 57.0 587
    CenterPoint 基于特征流的目标检查算法 3D 70.6 63.5 535
    EagerMOT 基于特征流的目标检查算法+Cascade R-CNN 2D+3D 72.1 57.4 398
    CBMOT 基于特征流的目标检查算法+CenterTrack 2D+3D 72.8 49.8 474
    L-ByteTrack 基于TransFusion-L的检测器 3D 70.1 54.9 488
    ShaSTA 基于改进CenterPoint的检测器 3D 69.6 54.0 473
    LiDAR MOT-DETR 基于特征流的目标检查算法 3D 73.6 48.6 404
    CTRA 基于特征流的目标检查算法 3D 74.6 58.2 252
    注:表中加粗的数字表示该指标在对应列中的最优结果。

    表  2   算法消融实验对比结果

    Table  2   Ablation study results of the algorithm

    算法 CTRA 速度校正 二阶段关联 AMOTA↑/% AMOTP↓/cm IDS↓
    基准算法 0 0 0 72.1 61.5 591
    a 1 0 0 73.4 61.1 508
    b 1 1 0 74.2 59.3 253
    c 1 1 1 74.8 58.2 252

    表  3   数据处理方式对比结果

    Table  3   Comparison of data processing methods

    方法 AMOTA↑/% IDS↓ 运行时间↓/s
    置信度过滤 71.8 323 0.006
    NMS 74.1 257 0.087
    置信度过滤+NMS 74.6 252 0.048
  • [1] LI Bo. 3D fully convolutional network for vehicle detection in point cloud[C]//2017 IEEE/RSJ International Conference on Intelligent Robots and Systems. Vancouver: IEEE, 2017: 1513−1518.
    [2] 郭凡, 卢铉宇, 李嘉怡, 等. 基于深度神经网络的目标跟踪算法综述[J]. 航空兵器, 2024, 31(1): 1−12.

    GUO Fan, LU Xuanyu, LI Jiayi, et al. A review of target tracking algorithm based on deep neural network[J]. Aero weaponry, 2024, 31(1): 1−12.
    [3] 曾雅俊, 王俊, 魏少明, 等. 分布式多传感器多目标跟踪方法综述[J]. 雷达学报, 2023, 12(1): 197−213.

    ZENG Yajun, WANG Jun, WEI Shaoming, et al. Review of the method for distributed multi-sensor multi-target tracking[J]. Journal of radars, 2023, 12(1): 197−213.
    [4] SIEBEL N T, MAYBANK S. Fusion of multiple tracking algorithms for robust people tracking[C]//European Conference on Computer Vision. Berlin: Springer, 2002: 373−387.
    [5] LI Ying, MA Lingfei, ZHONG Zilong, et al. Deep learning for LiDAR point clouds in autonomous driving: a review[J]. IEEE transactions on neural networks and learning systems, 2021, 32(8): 3412−3432. doi: 10.1109/TNNLS.2020.3015992
    [6] 孟琭, 杨旭. 目标跟踪算法综述[J]. 自动化学报, 2019, 45(7): 1244−1260.

    MENG Lu, YANG Xu. A survey of object tracking algorithms[J]. Acta automatica sinica, 2019, 45(7): 1244−1260.
    [7] 杜伟松. 基于机器视觉的智能汽车环境感知算法研究综述[J]. 汽车工业研究, 2018(4): 26−33.

    DU Weisong. Overview of research on environment awareness algorithms of smart cars based on machine vision[J]. Auto industry research, 2018(4): 26−33.
    [8] 彭湃, 耿可可, 王子威, 等. 智能汽车环境感知方法综述[J]. 机械工程学报, 2023, 59(20): 281−303. doi: 10.3901/JME.2023.20.281

    PENG Pai, GENG Keke, WANG Ziwei, et al. Review on environmental perception methods of autonomous vehicles[J]. Journal of mechanical engineering, 2023, 59(20): 281−303. doi: 10.3901/JME.2023.20.281
    [9] DU Kehao, BOBKOV A. An overview of object detection and tracking algorithms[C]//INTELS’22. Moscow: MDPI, 2023: 22.
    [10] BEWLEY A, GE Zongyuan, OTT L, et al. Simple online and realtime tracking[C]//2016 IEEE International Conference on Image Processing. Phoenix: IEEE, 2016: 3464−3468.
    [11] KALMAN R E. A new approach to linear filtering and prediction problems[J]. Journal of basic engineering, 1960, 82(1): 35−45. doi: 10.1115/1.3662552
    [12] REZATOFIGHI H, TSOI N, GWAK J, et al. Generalized intersection over union: a metric and a loss for bounding box regression[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Long Beach: IEEE, 2019: 658−666.
    [13] YU Jiahui, JIANG Yuning, WANG Zhangyang, et al. UnitBox: an advanced object detection network[C]//Proceedings of the 24th ACM International Conference on Multimedia. Amsterdam: ACM, 2016: 516−520.
    [14] CHIU H K, LI Jie, AMBRUŞ R, et al. Probabilistic 3D multi-modal, multi-object tracking for autonomous driving[C]//2021 IEEE International Conference on Robotics and Automation. Xi’an: IEEE, 2021: 14227−14233.
    [15] MCLACHLAN G J. Mahalanobis distance[J]. Resonance, 1999, 4(6): 20−26. doi: 10.1007/BF02834632
    [16] PANG Ziqi, LI Zhichao, WANG Naiyan. SimpleTrack: understanding and rethinking 3D multi-object tracking[M]//Computer Vision–ECCV 2022 Workshops. Cham: Springer Nature Switzerland, 2023: 680−696.
    [17] WANG Sukai, SUN Yuxiang, LIU Chengju, et al. PointTrackNet: an end-to-end network for 3-D object detection and tracking from point clouds[J]. IEEE robotics and automation letters, 2020, 5(2): 3206−3212. doi: 10.1109/LRA.2020.2974392
    [18] ZHOU Xingyi, KOLTUN V, KRÄHENBÜHL P. Tracking objects as points[M]//Computer Vision–ECCV 2020. Cham: Springer International Publishing, 2020: 474−490.
    [19] 高文印, 文峰, 单铭琦. 基于改进CenterTrack的多目标跟踪算法[J]. 沈阳理工大学学报, 2023, 42(3): 22−27.

    GAO Wenyin, WEN Feng, SHAN Mingqi. Multi-target tracking algorithm based on improved CenterTrack[J]. Journal of Shenyang Ligong University, 2023, 42(3): 22−27.
    [20] LUO Wenhan, XING Junliang, MILAN A, et al. Multiple object tracking: a literature review[J]. Artificial intelligence, 2021, 293: 103448. doi: 10.1016/j.artint.2020.103448
    [21] 尹宏鹏, 陈波, 柴毅, 等. 基于视觉的目标检测与跟踪综述[J]. 自动化学报, 2016, 42(10): 1466−1489.

    YIN Hongpeng, CHEN Bo, CHAI Yi, et al. Vision-based object detection and tracking: a review[J]. Acta automatica sinica, 2016, 42(10): 1466−1489.
    [22] NEUBECK A, VAN GOOL L. Efficient non-maximum suppression[C]//18th International Conference on Pattern Recognition. Hong Kong: IEEE, 2006: 850−855.
    [23] 姜佰辰, 关键, 周伟, 等. 基于多项式卡尔曼滤波的船舶轨迹预测算法[J]. 信号处理, 2019, 35(5): 741−746.

    JIANG Baichen, GUAN Jian, ZHOU Wei, et al. Vessel trajectory prediction algorithm based on polynomial fitting Kalman filtering[J]. Journal of signal processing, 2019, 35(5): 741−746.
    [24] KRENER A J. The convergence of the extended Kalman filter[M]. Berlin: Springer Berlin Heidelberg, 2003.
    [25] 张爱民. 扩展卡尔曼滤波在目标跟踪中的应用研究[J]. 信息技术, 2013, 37(10): 95−97,102.

    ZHANG Aimin. Research on target tracking of extended Kalman filter and its application[J]. Information technology, 2013, 37(10): 95−97,102.
    [26] 郑斌琪, 李宝清, 刘华巍, 等. 采用自适应一致性UKF的分布式目标跟踪[J]. 光学 精密工程, 2019, 27(1): 260−270. doi: 10.3788/OPE.20192701.0260

    ZHENG Binqi, LI Baoqing, LIU Huawei, et al. Distributed target tracking based on adaptive consensus UKF[J]. Optics and precision engineering, 2019, 27(1): 260−270. doi: 10.3788/OPE.20192701.0260
    [27] 李天成, 谢昱昕, 李固冲, 等. 面向多目标跟踪的数据关联方法研究综述[J]. 雷达科学与技术, 2025, 23(1): 10−31.

    LI Tiancheng, XIE Yuxin, LI Guchong, et al. A survey on data association approaches to multi-target tracking[J]. Radar science and technology, 2025, 23(1): 10−31.
    [28] CAESAR H, BANKITI V, LANG A H, et al. nuScenes: a multimodal dataset for autonomous driving[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle: IEEE, 2020: 11621−11631.
    [29] KIM A, OŠEP A, LEAL-TAIXÉ L. EagerMOT: 3D multi-object tracking via sensor fusion[C]//2021 IEEE International Conference on Robotics and Automation. Xi’an: IEEE, 2021: 11315−11321.
    [30] BENBARKA N, SCHRÖDER J, ZELL A. Score refinement for confidence-based 3D multi-object tracking[C]//2021 IEEE/RSJ International Conference on Intelligent Robots and Systems. Prague: IEEE, 2021: 8083−8090.
WeChat 点击查看大图
图(5)  /  表(3)
出版历程
  • 收稿日期:  2025-03-24
  • 录用日期:  2025-09-30
  • 网络出版日期:  2025-10-09

目录

    /

    返回文章
    返回