舰船科学技术  2024, Vol. 46 Issue (19): 165-169    DOI: 10.3404/j.issn.1672-7649.2024.19.030   PDF    
基于光视觉信息自适应聚合的船舶自主避碰决策
张博文, 阚明     
交通运输部 北海航海保障中心天津航标处,天津 300456
摘要: 船舶航行环境复杂多变,多模态视觉相机采集的多源视觉信息融合过程繁杂,特征提取不够精细,为此研究光视觉信息自适应聚合的船舶自主避碰决策方法。利用Kinect相机采集多源图像,通过自适应聚合增强环境感知。结合Mask RCNN与ResNet-101,精确提取图像信息中的目标特征,经RPN生成候选区域。特征向量进入FCN与分类回归分支,识别目标并定位,转换坐标后获取运动态势。依据碰撞风险计算和船舶操纵经验,智能输出避碰指令。实验结果表明,该方法在复杂航行环境下展现出良好的避碰决策性能,光视觉信息聚合后,交并比、F1 score分别为92.7%、94.2%。
关键词: 光视觉信息     避碰决策     Mask RCNN     碰撞风险    
Autonomous collision avoidance decision-making of ships based on adaptive aggregation of optical visual information
ZHANG Bowen, KAN Ming     
Tianjin Aids to Navigation Division, Maritime Safety Adminstration of Northern Navigation Service Center, Tianjin 300456, China
Abstract: The navigation environment of ships is complex and ever-changing, and the fusion process of multi-source visual information collected by multimodal visual cameras is complicated. The feature extraction is not precise enough. Therefore, a ship autonomous collision avoidance decision-making method based on adaptive aggregation of optical visual information is studied. Use Kinect camera to capture multi-source images and enhance environmental perception through adaptive aggregation. Combining Mask RCNN and ResNet-101, accurately extract target features from image information and generate candidate regions through RPN. The feature vector enters the FCN and classification regression branches, identifies the target and locates it, and obtains the motion situation after coordinate transformation. Based on collision risk calculation and ship maneuvering experience, intelligently output collision avoidance commands. The experimental results show that this method exhibits good collision avoidance decision-making performance in complex navigation environments. After the aggregation of optical visual information, the intersection to union ratio and F1 score are 92.7% and 94.2%, respectively.
Key words: optical visual information     collision avoidance decision     mask RCNN     collision risk    
0 引 言

在复杂多变的海洋环境中,船舶避碰是保证航行安全的核心任务之一。传统的船舶避碰决策主要依赖于船员的经验和判断,然而这种方法受限于人为因素,如疲劳、判断失误等,可能导致避碰决策的失误,进而引发严重的海难事故[1]。船舶自主避碰决策系统通过集成传感器、雷达、卫星定位等多源信息,实现船舶周围环境的实时感知和动态监测[2],为船舶提供准确的避碰决策支持。然而,海洋环境复杂多变,船舶感知到的信息具有多样性、不确定性和动态性等特点,如何有效地处理这些光视觉信息,提高避碰决策的准确性和实时性[3],是船舶自主避碰决策系统面临的重要挑战。

关巍等[4]采用长短时记忆网络(LSTM)对近端策略优化(PPO)避碰决策框架进行优化,使其能够学习并理解通过激光雷达等传感器设备收集的船舶航行环境信息。在精心设计的奖励函数引导下,该框架能够输出最优的避碰动作,确保船舶在航行过程中实现自主避碰。然而,面对复杂多变的海洋环境,特别是当传感器受到干扰时,避碰效果可能会受到显著影响。Zheng等[5]研究了基于改进文化粒子群优化算法的船舶避碰决策方法,该方法首先通过卡尔曼滤波器预测船舶轨迹并计算碰撞风险,然后根据《国际海上避碰规则公约》确定转向角方向,并利用改进的文化粒子群算法在给定范围内搜索最优转向角,从而自动实现与其他船舶的避碰。该方法根据导航系统数据预测船舶轨迹和碰撞风险,可能无法全面捕捉船舶周围环境的动态变化。谢鸿伟等[6]提出的模型预测控制方法,以其深厚的理论基础和实用性,在船舶自主避碰领域展现出显著的优势。该方法基于船舶动力学模型,通过预测船舶在未来一段时间内的运动轨迹和状态,为船舶提供最优的避碰方案。然而,这一方法的局限性在于其高度依赖于船舶自身的传感器和物理模型,导致信息来源相对单一,可能在一定程度上影响避碰决策的精确性和可靠性。近年来,随着计算机视觉技术的飞速发展,光视觉信息在船舶自主避碰领域的应用逐渐受到重视。徐茂竹等[7]利用单个摄像机捕捉无人艇航行环境图像或视频,利用YOLO网络追踪航行环境中的目标物,通过改进向量场直方图算法实现航向角的更新,使其避开目标物。该方法因依赖单一视角,导致其深度感知能力受到限制。

将多个视觉信息源整合成一个统一的视觉感知,从而生成更准确、全面的视觉感知结果,对降低船舶碰撞风险具有重要意义。因此,本文提出视觉信息自适应聚合的船舶自主避碰决策方法,增强航行环境感知能力,提高船舶航行安全。

1 船舶自主避碰决策 1.1 多源光视觉图像配准与自适应聚合

本文通过安装在船首以及船舷两侧的Kinect多模态视觉相机对船舶航行环境进行感知,实现RGB、深度、红外图像的同时获取。

为简化图像处理和分析流程,首先需使多源光视觉图像分辨率保持一致,本文通过转换矩阵方式实现多源图像配准。红外图像与RGB图像配准操作具体为:设定$ \left( {X,Y} \right) $$ \left( {x,y} \right) $分别为红外图像、RGB图像上的像素点,二者之间关系表示为:

$ \left[ \begin{gathered} X \\ Y \\ 1 \\ \end{gathered} \right] = T\left[ \begin{gathered} x \\ y \\ 1 \\ \end{gathered} \right] = \left[ \begin{gathered} {a_1}\mathop {}\nolimits^{} {a_2}\mathop {}\nolimits^{} {a_3} \\ {a_4}\mathop {}\nolimits^{} {a_5}\mathop {}\nolimits^{} {a_6} \\ {a_7}\mathop {}\nolimits^{} {a_8}\mathop {}\nolimits^{} 1 \\ \end{gathered} \right]\left[ \begin{gathered} x \\ y \\ 1 \\ \end{gathered} \right] 。$ (1)

式中:$ {\boldsymbol{T}} $为坐标转换矩阵,$ {a_i}\left( {i = 1, \cdots ,8} \right) $为转换参数。在红外、RGB图像采集过程中放置棋盘格标定板,通过检测标定板上的角点,可以确定多组$ \left( {X,Y} \right) $$ \left( {x,y} \right) $,应用最小二乘法确定超定方程组的解,即可确定转换矩阵$ {\boldsymbol{T}} $,将其应用于红外图像上,则可将其转换到RGB图像分辨率下。同理,可将深度图像转换到RGB图像分辨率下,实现多源视觉图像配准。

对相同船舶航行场景下的多源光视觉图像进行自适应聚合,能够形成一个更全面、更准确的航行场景描述,有助于理解船舶的航行状态、周围环境以及潜在风险,为后续的船舶导航、避碰决策等提供更为可靠的数据支持。通过式(2)~式(5)实现配准后多源光视觉图像聚合:

$ F = C \cup D \cup I = \left( {x,y,r,g,b,d,i} \right) ,$ (2)
$ C = \left( {x,y,r,g,b} \right) ,$ (3)
$ D = \left( {x,y,d} \right) ,$ (4)
$ I = \left( {x,y,i} \right) 。$ (5)

式中:$ C $$ D $$ I $分别为RGB图像、深度图像以及红外图像;多源光视觉图像聚合结果表示为$ F $$ r $$ g $$ b $$ d $$ i $$ F $的各个通道,分别与红、绿、蓝、深度、红外通道相对应。

利用图像处理技术,对船舶感知到的光视觉信息进行配准和自适应融合,形成对船舶周围环境的全面感知。由此,可根据感知结果和船舶的航行状态,制定准确的避碰决策。

1.2 基于Mask RCNN的目标追踪

本文构建基于Mask RCNN[8]的目标追踪流程,其基本结构如图1所示。输入为多源光视觉图像的自适应聚合结果。输出包括目标类型、位置坐标及二值掩码。流程中,Faster R-CNN的Region Proposal Network(RPN)生成候选ROI,经卷积与全连接层分类并微调边界框坐标。引入FCN对ROI进行像素级预测,生成二值掩码实现精确分割。ResNet-101自动学习图像特征,通过多层次卷积和池化捕获不同尺度特征,输入RPN生成ROI。ROI Align确保特征精确提取,特征向量分别处理于上下分支。上层FCN上采样生成掩码,下层全连接层识别目标并定位。该流程实现了高效、精确的目标追踪与分割,提升了船舶航行环境的感知能力。训练损失函数定义为:

图 1 基于Mask RCNN的目标追踪流程 Fig. 1 Target tracking process based on Mask RCNN
$ L = {L_{\rm{cls}}} + {L_{\rm{box}}} + {L_{\rm{mask}}} 。$ (6)

式中:$ {L_{\rm{cls}}} $为目标分类损失;$ {L_{\rm{box}}} $为目标定位损失;$ {L_{\rm{mask}}} $为目标分割损失。

为提高Mask RCNN网络运行效率,本文基于共享卷积方式确定ROI,即将ResNet-101网络提取的最后一层特征图应用到RPN中,RPN利用3×3卷积核处理其输入特征图,为了捕捉不同尺寸、形状目标,本文将检测框大小分别设置为128×128、256×256、512×512,同时配置了1∶1、1∶2、2∶1这3种长宽比。采用非极大值抑制法进行重叠ROI筛选,得到一组置信度较高、相互不重叠且存在目标的候选区域,在其上完成目标分割。

1.3 目标物运动态势参数获取

对得到的目标定位结果进行空间坐标转换,确保能够准确反映目标在真实世界中的位置和动态,为后续的碰撞风险评估和避障决策提供可靠依据。

在完成坐标转换后,根据船舶航行操纵知识,需对以下运动态势参数进行确定。

1)目标位置。确定目标中心点坐标,将其视作目标的实际位置。

2)目标大小。对得到的目标分割图像中各个像素点进行坐标转换,确定其空间坐标后,通过绘制其矩形框对目标进行标记。设定$ {x_1},{x_2}, \cdots ,{x_N} $为目标空间点集合,采用主成分分析法(PCA)对$ \left\{ {{x_i}} \right\} $进行处理,通过$ {\boldsymbol{S}} = {{\sum\limits_{i = 1}^N {\left( {{x_i} - \bar x} \right){{\left( {{x_i} - \bar x} \right)}^{\rm T}}} }}/{N} $求得协方差矩阵$ {\boldsymbol{S}} $,空间点的均值向量表示为$ \bar x $。找到$ {\boldsymbol{S}} $的特征值和特征向量,选取最大、最小特征值,并确定其特征向量后,分别视作主轴及其垂直向量,表示为$ u $$ v $。接着,通过公式$ {m_i} = \left( {{x_i} \cdot u} \right)/\left\| u \right\| $$ {n_i} = \left( {{x_i} \cdot v} \right)/\left\| v \right\| $确定$ \left\{ {{x_i}} \right\} $$ u $$ v $方向的投影坐标,并分别确定$ \left\{ {{m_i}} \right\} $$ \left\{ {{n_i}} \right\} $的上下限$ {m_{\max }} $$ {m_{\min }} $$ {n_{\max }} $$ {n_{\min }} $。通过下式:$ h = {m_{\max }} - {m_{\min }} $$ w = {n_{\max }} - {n_{\min }} $,得到目标框的长、宽。

3)航向角$ \theta $,该参数定义为$ u $$ OX $坐标轴所成角度,通过公式$ \theta = \arctan \left( {{{{u_y}}}/{{{u_x}}}} \right) $得到。

4)目标运动速度。通过式$ {v_t} \;=\; {10^{ - 1}}\displaystyle\sum\limits_{k = 1}^{10} ( || {x_{t - k}} - {x_{t - k - 10}} ||/\Delta t ) $确定,式中,$ \Delta t = 10{f^{ - 1}} $$ f $为帧速率。

1.4 船舶碰撞风险预测与避碰决策

基于获得目标物的空间位置后,结合得到的船舶自身的航行状态(包括位置、大小、速度、航向角等),通过计算碰撞相关指标(船舶与目标之间的距离、失控漂移距离等)来评估船舶与目标物之间的碰撞风险等级。

将船舶碰撞风险精细划分为C1、C2、C3这3个等级。其中,C1为“碰撞危险”,C2为“紧迫局面”,C3为“紧迫危险”,每一级都准确反映了碰撞风险的递增严重性。不同级别船舶碰撞风险判断依据与避障决策具体如下:

1)C1级别碰撞风险判断依据。当船舶实际运行轨迹与预设航迹发生显著偏离,风流压差角过大。同时,船舶与目标之间的距离$ {S_{\rm{distance}}} $大于等于失控漂移距离$ {S_{\rm{drift}}} $时,预示船舶可能面临碰撞风险,需要立即采取措施调整航向和速度,以避免碰撞事故发生。船舶失速漂航冲距$ {S_c} $是评估船舶在失去动力或速度显著降低时,由于惯性、水流和其他外部因素而继续前行的距离,计算公式为:

$ {S_c} = {v_0} \cdot {T_{st}}\left( {1 - {e^{\frac{{ - T}}{{{T_{st}}}}}}} \right)\cos \alpha + U \cdot T \cdot \cos \alpha 。$ (7)

式中:$ {v_0} $为船舶失速前的速度;$ {T_{st}} $为船舶减速至静止状态所需时间;$ T $为船舶从失速开始到完全静止所需总时间;$ \alpha $为船舶航向与水流方向的夹角;$ U $为水流速度。为保证船舶航行安全,本文设定$ {S_c} = {S_{\rm{drift}}} $,用于度量船舶与其周围目标之间存在的碰撞危险程度。当船舶存在C1级别碰撞风险时,将航迹误差变化量作为船舶舵机控制的输入,实现航向的实时调整,避免潜在的碰撞风险。同时,通过高效的声光报警系统向船舶上的相关人员进行预警提示,确保其能够迅速采取必要的应对措施,降低碰撞风险,确保船舶和人员的安全。

2)C2级别碰撞风险判断依据为。船舶倒车冲程$ {S_{RE}} $高于船舶与目标之间的纵向距离$ D $时,船舶与目标之间距离迅速缩短,碰撞风险急剧上升,此时船舶已处于“紧迫局面”风险等级。$ {S_{RE}} $计算公式为:

$ {S_{RE}} = 0.01201 \times \Delta \cdot v_1^2/{R_1}。$ (8)

式中:$ v_1^{} $为船舶倒车速度初值,该速度下的行进阻力、排水量分别为$ {R_1} $$ \Delta $。在此种情况下,需采取减速航行措施,当船速逐渐降低至适宜抛锚的速度范围时,采取拖锚制动方式进一步减小船舶的漂移距离,确保船舶与目标之间保持安全距离。

3)C3级别碰撞风险判断依据为:当船舶满舵旋回进距$ {A_d} $高于$ D $时,船舶与目标之间的距离已极其接近,碰撞风险极高,此时可考虑满舵旋回+快速倒车+拖锚制动的组合方式进行紧急避让。

2 实验分析

为验证方法的避碰决策性能,以某航行船舶为实验对象,通过安装在船首以及船舷两侧的Kinect多模态视觉相机对不同天气条件下的航行环境信息进行采集,得到5000组包含RGB图像、深度图像、红外图像的光视觉图像样本,对应图像分辨率分别为1920×10801280×720、1280×720。原始图像样本经过配准、自适应聚合处理后,对其进行8等分,选取其中7份作为目标追踪网络的学习样本,利用最后一份样本检验网络的目标追踪性能。Kinect相机设置分辨率为1920×1080(高清模式),帧率30 fps,视野范围中水平视角约70°,垂直视角约60°。Mask RCNN目标追踪网络层数101层,RPN中Anchor Boxes设置3个尺度(32×32, 64×64, 128×128),Anchor Boxes设置3个宽高比(1∶1, 1∶2, 2∶1),非极大值抑制(NMS)阈值0.7,FCN(全卷积网络)和分类回归分支分类阈值0.5。

为分析光视觉图像自适应聚合对船舶航行目标追踪效果的影响,分别将RGB图像、RGB+深度图像、RGB+红外图像、RGB+深度+红外图像作为研究方法所用目标识别定位网络的输入,通过交并比指标、F1 score指标衡量目标追踪效果,实验结果如图2所示。

图 2 光视觉图像自适应聚合对目标追踪性能的影响分析 Fig. 2 Analysis of the impact of adaptive aggregation of light vision images on target tracking performance

可知,光视觉图像自适应聚合技术对于船舶航行目标追踪效果具有显著影响。单独使用RGB图像时,目标追踪的交并比和F1 score分别为84%和91.3%。在RGB图像基础上,结合深度图像和红外图像后,目标追踪性能得到显著提升,特别是当RGB图像、深度图像和红外图像同时使用时,交并比提升至0.927,F1 score也增加到94.2%,目标追踪效果达到最优水平。这表明光视觉图像聚合对于船舶航行中的目标追踪具有重要应用价值。

应用研究方法对不同船舶航行环境下的目标进行追踪,9组样本下的虚警率、F1 score指标差异如表1所示。

表 1 各组样本目标追踪结果分析 Tab.1 Analysis of target tracking results for each group of samples

分析可知,在晴朗但水波较大的航行环境中,样本的虚警率普遍较高,尽管F1 score指标整体较高,但虚警率的波动反映了图像方差对目标追踪稳定性的影响。在雨天但水波较小的航行环境下,样本D、E和F的虚警率相对较低,且F1 score均为1,说明在较为平静的水面条件下目标追踪性能更为稳定。在雾天环境下,虽然部分样本如G和I的虚警率有所上升,但H样本显示出较好的追踪效果,表明即使在恶劣天气条件下,通过光视觉图像自适应聚合技术仍能实现较为准确的目标追踪。

为分析研究方法的避碰决策性能,对多种真实航行场景进行模拟,特别聚焦在交叉相遇、追越和近距离相遇这3种典型避碰情况,同时考虑了大风浪、夜间航行和船舶设备故障等多种因素。在不同场景中设置不同数量、大小、速度的虚拟障碍物,根据船舶实际性能设定排水量、速度等运动态势参数,确保模拟场景真实性和准确性,实验结果如表2所示。

表 2 不同航行场景下的避碰决策性能分析 Tab.2 Analysis of collision avoidance decision performance in different navigation scenarios

可知,在模拟的5种航行场景中,应用研究方法能够在较短时间内作出正确避碰决策,并保持了一定的最小安全距离。这表明研究方法可在复杂航行环境下展现出良好的避碰决策性能。虽然在大风浪条件下决策时间稍长,但系统仍然能够正确判断并避免碰撞风险,显示了其对恶劣环境的适应能力。

3 结 语

为增强船舶自主航行能力,本文提出了光视觉信息自适应聚合的船舶自主避碰决策方法,该方法能够自适应地聚合光视觉信息,有效识别并定位航行中的障碍物目标。在此基础上,根据障碍物的运动态势参数以及相关碰撞距离计算结果,评估船舶碰撞风险等级,并采取相应的策略确保船舶在复杂环境中安全航行。未来,将继续深化光视觉信息自适应聚合技术的研究,探索更先进的算法和模型,以适应更复杂的航行条件,提高船舶自主避碰决策的准确性和可靠性。

参考文献
[1]
杨琪森, 王慎执, 桑金楠, 等. 复杂开放水域下智能船舶路径规划与避障方法[J]. 计算机集成制造系统, 2022, 28(7): 2030-2040.
[2]
徐言民, 律建辉, 刘佳仑, 等. 基于CSSOA的多船智能避碰决策研究[J]. 中国舰船研究, 2023, 18(6): 88-96.
XU Yanmin, LV Jianhui, LIU Jialun, et al. Multi-vessel intelligent collision avoidance decision-making based on CSSOA[J]. Chinese Journal of Ship Research, 2023, 18(6): 88-96.
[3]
庹玉龙, 康彩霞, 王莎莎, 等. 未知干扰下多船相邻交叉耦合同步编队避障控制[J]. 交通运输工程学报, 2023, 23(6): 314-326.
TUO Yulong, KANG Caixia, WANG Shasha, et al. Adjacent cross-coupling synchronous formation control with collision avoidance for multiple ships under unknown disturbances[J]. Journal of Traffic and Transportation Engineering, 2023, 23(6): 314-326.
[4]
关巍, 崔哲闻, 罗文哲. 基于改进PPO算法的船舶自主避碰决策[J]. 大连海事大学学报, 2023, 49(4): 28-36.
GUAN Wei, CUI Zhewen, LUO Wenzhe. Ship autonomous collision avoidance decision based on improved PPO algorithm[J]. Journal of Dalian Maritime University, 2023, 49(4): 28-36.
[5]
ZHENG Yisong, ZHANG Xiuguo, SHANG Zijing, et al. A decision-making method for ship collision avoidance based on improved cultural particle swarm[J]. Journal of Advanced Transportation, 2021, 2021(1): 1-31.
[6]
谢鸿伟, 张英俊, 邢胜伟, 等. 基于模型预测控制的船舶自主避碰方法[J]. 船舶工程, 2021, 43(8): 23-28+95.
XIE Hongwei, ZHANG Yingjun, XING Shengwei, et al. A method for ship autonomous collision avoidance based on model predictive control[J]. Ship Engineering, 2021, 43(8): 23-28+95.
[7]
徐茂竹, 李弘, 李亚光, 等. 单目视觉引导下的无人艇局部避障方法[J]. 重庆邮电大学学报(自然科学版), 2023, 35(4): 732-741.
[8]
张芯睿, 赵清华, 王雷, 等. 基于Mask R-CNN的雾天场景目标检测[J]. 电光与控制, 2022, 29(12): 83-88.