洋流干扰下低速欠驱动AUV的三维路径规划

陈世同 鲁子瑜

陈世同, 鲁子瑜. 洋流干扰下低速欠驱动AUV的三维路径规划 [J]. 智能系统学报, 2025, 20(2): 425-434. doi: 10.11992/tis.202311004
引用本文: 陈世同, 鲁子瑜. 洋流干扰下低速欠驱动AUV的三维路径规划 [J]. 智能系统学报, 2025, 20(2): 425-434. doi: 10.11992/tis.202311004
CHEN Shitong, LU Ziyu. 3D path planning for low-speed underdriven AUV under ocean current disturbance [J]. CAAI Transactions on Intelligent Systems, 2025, 20(2): 425-434. doi: 10.11992/tis.202311004
Citation: CHEN Shitong, LU Ziyu. 3D path planning for low-speed underdriven AUV under ocean current disturbance [J]. CAAI Transactions on Intelligent Systems, 2025, 20(2): 425-434. doi: 10.11992/tis.202311004

洋流干扰下低速欠驱动AUV的三维路径规划

doi: 10.11992/tis.202311004
详细信息
    作者简介:

    陈世同,讲师,主要研究方向为海洋观探测技术、智能导航。曾获黑龙江省技术发明奖一等奖1次、三等奖1次,获发明专利授权5项,发表学术论文10余篇。E-mail:chenshitong@hrbeu.edu.cn;

    鲁子瑜,硕士研究生,主要研究方向为强化学习算法、路径规划算法。E-mail:lycxxlzy@hrbeu.edu.cn.

    通讯作者:

    陈世同. E-mail:chenshitong@hrbeu.edu.cn.

  • 中图分类号: TP242.6

3D path planning for low-speed underdriven AUV under ocean current disturbance

  • 摘要: 海洋洋流对低速欠驱动水下运载器(automatic underwater vehicle, AUV)的航行影响巨大,会增加航行时间、增大能源消耗以及改变航行轨迹,故在洋流干扰的情况下规划出一条最优航行路线有着重要的意义。本文主要分析了洋流对AUV的影响机理,由于传统的强化Q网络(deep Q-network, DQN)路径规划算法在复杂环境下存在过估计的问题,提出了基于优先经验回放方法的改进DQN路径规划算法,同时对动作设计和奖励函数进行优化。在基于S57海图数据建立的三维海洋环境下,利用地球与空间研究机构(earth & space research, ESR)提供的洋流数据进行路径规划仿真。实验结果表明,在充分考虑洋流干扰的情况下,改进后的DQN算法能够规划出较优的全局路径规划,提供一条时间最短且能耗最低的航行路线,为AUV水下航行提供参考。

     

    Abstract: Ocean currents, which have a substantial impact on the navigation of low-speed, underdriven AUVs, can increase navigation time, raise energy consumption, and change the navigation trajectory. Therefore, planning an optimal navigation route that accounts for the disturbance of ocean currents is of considerable importance. This study mainly analyzes the mechanism by which ocean currents influence AUVs and proposes an improved DQN path planning algorithm based on the prioritized experience replay method. This modification addresses the problem of overestimation, which is a common issue when using a traditional DQN path planning algorithm. Additionally, the action design and reward functions are optimized. Path planning simulations are conducted in a 3D ocean environment, which is established based on S57 chart data and ocean current data provided by Earth & Space Research. Experimental results show that the improved DQN algorithm generates a more effective global path planning, offering a navigation route that minimizes time and energy consumption. This work provides a valuable reference for underwater AUV navigation, fully considering the impact of ocean current disturbances.

     

  • 低速欠驱动水下运载器(automatic underwater vehicle, AUV)是一类为执行水下任务的自航载体。其包括自主导航与控制、自主决策、自主作业等关键系统,可以自主执行各种特殊任务[1]。AUV具有体积小、机动能力强、智能化程度高、作业风险低、低功耗、长续航等特点,广泛地运用于海洋环境探测、海洋安全保证等关键领域。路径规划作为自主式水下航行器的核心技术之一,是AUV执行任务时安全性、可靠性的重要支撑[2]

    然而,海洋环境的复杂性和多变性对AUV的航行和路径规划提出了巨大的挑战。洋流作为海洋环境中主要的干扰源之一,会对AUV的航行产生显著的影响。洋流干扰引起AUV的航行问题包括路径偏移、能耗增加以及任务执行效率下降等,这些问题都限制了AUV在实际海洋环境中的应用[3]。刘甲等[4]提出了低速AUV在航渡过程中通过增加航路控制点的方法减小洋流的影响。Liu等[5]提出了一种基于分布估计算法(estimation of distribution algorithm, EDA)的固定高度直方图方法来处理动态环境下AUV的路径规划问题。

    由于目前AUV的路径规划常用自身控制应对洋流干扰的方法需要额外消耗更多的能源从而导致航行时间增大[6],故本文在上述文献思想的基础之上,不使用当前常用的AUV自身控制应对洋流的方法,而是使用优先经验回放方法改进强化Q网络(deep Q-network, DQN)算法来解决应对洋流干扰情况下的全局路径规划的问题,从而规划出一条时间最短、能耗最低的AUV航行路线。

    低速欠驱动AUV是使用最广的一类水下机器人,其特点是速度相对较慢且独立控制输入的数量小于系统位形空间的自由度[7],使其更适合执行一些需要精确控制、细致观测且航行周期较长的任务[8]

    本文低速欠驱动AUV的前推力来自于AUV尾部的螺旋桨,横摆力矩和俯仰力矩分别来源于AUV尾部的垂直方向舵和水平方向舵,在主流的欠驱动AUV中,这种配置最为常见。

    洋流是指海洋中的水流运动,并在全球范围内形成了复杂的循环系统。太阳辐射是洋流形成的主要动力来源,地球的自转也会影响着洋流的形成,此外海底的地形也会深刻影响着洋流的流向[9]

    一般情况下,水平方向的洋流在全球范围内速度可达每小时数十千米。而在垂直方向上的洋流是由海水的密度差异、温度差异或盐度差异所驱动,通常以每小时几厘米到每小时几分米的速度进行[10]。故为了简化洋流的运动,垂直于水平面的方向的流速ω忽略不计[11]。假设洋流的纬向速度(zonal velocity) u和经向速度(meridional velocity)v沿深度均匀分布,且忽略黏性力、离心力和非线性惯性力。将洋流对AUV的作用力分解为沿着AUV纵轴(x轴)方向、横轴(z轴)和垂直于AUV运动平面(y轴)方向,如图1所示。洋流在垂直于水平面的方向的流速ω忽略不计,即忽略沿AUV的y轴方向的洋流作用力,故在分析洋流对AUV航行轨迹的影响主要从AUV的x轴方向和z轴方向进行考虑[12]

    图  1  低速欠驱动AUV的坐标分解
    Fig.  1  Coordinate decomposition of low-speed underdriven AUV
    下载: 全尺寸图片

    图2从AUV上方俯视AUV,并进行坐标分解。由于洋流作用在低速欠驱动AUV上的流体动力,可以等效为AUV的x轴和z轴方向分别叠加洋流的加速度。其中z轴方向上的分解加速度则会影响AUV的航行轨迹,使得AUV无法沿着既定航线直线航行。

    图  2  在洋流影响下的AUV坐标分解
    Fig.  2  Decomposition of AUV coordinates under the influence of ocean currents
    下载: 全尺寸图片

    图2所示,设低速欠驱动AUV的航速为v0,航向为沿着x轴正方向直线航行,vl为洋流的速度,vl图2中标注的方向为假定的洋流方向,vlx轴的夹角为φ,AUV的航行轨迹的航迹方向为η,则存在以下关系:

    沿航路x轴方向的速度分量为

    vx=v0+vlcosφ

    沿z轴的速度分量为

    vz=vlsinφ

    AUV航迹的实际方向为

    η=arctanvzvx

    AUV的实际航速为

    v=v2x+v2z

    通过对上式的分析,当洋流的流速vl>0时,就会对AUV的航行产生影响。如图3所示,v表示速度为2节(knot, kn)的洋流,方向为蓝色箭头方向。假设低速欠驱动AUV的航速为5 kn,并沿着v0所示方向航行。由于洋流的影响,低速欠驱动AUV实际上会沿着图3vl的方向航行,此时洋流对AUV的航向影响角φ为21.80°。郭兴海等[13]指出AUV在进行路径规划时若不考虑洋流影响会导致计算结果与实际存在较大偏差。故低速欠驱动AUV在进行路径规划时需要考虑洋流的影响。

    图  3  洋流对AUV的航行影响
    Fig.  3  Impact of ocean currents on AUV navigation
    下载: 全尺寸图片

    所以,洋流对低速欠驱动AUV的影响主要分为3个主要方面:一是洋流会引起AUV的路径偏移,AUV在航行的过程中会受到洋流的推动力影响而偏离预定的航线,使其无法沿着既定的规划航线进行航行;二是洋流的干扰会影响AUV的航行姿态和稳定性,尤其是对欠驱动的AUV影响更为明显,使其难以保持稳定的航行状态;三是洋流的干扰也会显著增加AUV的能耗,洋流对AUV的航行产生阻力,需要额外的能量来克服这种阻力[14]

    为了尽可能减少AUV在执行任务时受到的洋流干扰。本文首先建立对应任务海区的海底地形模型;接着在地形模型上增加洋流模型并构建海洋动态三维模型;最后采用优先经验回放策略改进传统DQN算法后,对AUV的路径进行规划。

    在AUV执行任务之前,需要先确定AUV执行任务的海域。首先获取任务海域的S-57电子海图[15]图4为S-57数据交换结构。S-57数据由一个或多个逻辑记录组成,每个逻辑记录由头标区、目次区和字段区构成。首条记录为数据描述记录(data descriptive record, DDR),其后的各个记录为数据记录(data record, DR)。记录的种类主要有以下5种:数据集描述、目录、数据字典、特征和空间信息。

    图  4  S-57数据交换结构
    Fig.  4  Structure of S-57 transfer file
    下载: 全尺寸图片

    在S-57电子海图的数据交换结构中,水深数据存储在DEPARE字段中。在DEPARE字段中包含DRVAL1子字段,其定义为深度范围最小值。

    本文通过提取DEPARE字段中含有最小水深数据的DRVAL1子字段。依据DRVAL1建模生成的任务海域的二维和三维海底地形如图5所示。

    图  5  某海域海底地形模型
    Fig.  5  Topographic model of the seabed in a sea area
    下载: 全尺寸图片

    接着,在三维地形模型中构建动态洋流模型[16],并考虑AUV执行任务的时间和总结当前海域的洋流规律。之后选择特定时刻的洋流数据绘制成区域洋流图[17]图6图5海域的洋流情况(只考虑水平方向的洋流),图中蓝色箭头的方向表示洋流的方向,蓝色箭头的长短表示洋流的强弱,即箭头越长表示该区域的洋流强度越大,没有蓝色箭头的区域则为陆地部分。

    图  6  指定海域的洋流情况
    Fig.  6  Currents in the designated sea area
    下载: 全尺寸图片

    最后在图6的洋流图中提取图5海域的洋流数据,绘制成包含洋流的三维海洋环境图[18],如图7所示。图中红色箭头的方向表示当前海域的洋流运动方向,箭头的长短表示洋流的相对大小,箭头上方的数值为当前洋流流速大小,单位为节。

    图  7  含洋流的三维海洋环境
    Fig.  7  3D marine environment with ocean currents
    下载: 全尺寸图片

    根据图7中洋流的运动及对应的海底地形情况,可以分析出该片海域的洋流总体上呈自东向西运动,且海岸处的洋流大小平均为0.05 kn左右,而在东经38.55°~东经39.00°和北纬123.5°~北纬124.5°的海域洋流流速基本低于0.01 kn。所以在该海域进行AUV路径规划的时可以针对此海域洋流具有海岸处洋流流速比远离海岸处洋流流速更快的特点进行优化,从而达到减少AUV的航行时间和降低AUV能耗的目的[19]

    DQN算法是深度强化学习(deep reinforcement learning, DRL)的一种方法[20],其基本原理结合了深度学习和强化学习,其核心是使用深度神经网络作为策略函数[21-22]。Q学习(Q-learning)算法构造了一个可用于深度学习的目标函数[23]。DQN算法可以使用价值函数来近似Q值[24]。如图8所示,DQN算法中包含2种结构相同但参数不同的网络,分别用于更新Q估计值和Q现实值[25-26]。传统强化学习算法仅采用表格作为策略函数,在面对复杂环境时建立表格会变得十分困难[27]。而DQN算法由于采用的具有强大拟合能力的深度神经网络,可以替代传统的由表格作为的策略函数,使得DQN算法在复杂场景中具有传统强化学习算法无可比拟的优势[28-29]。所以在面对动态海洋环境进行路径规划决策时,使用DQN算法可以很好地解决复杂环境的问题[30]

    图  8  DQN算法
    Fig.  8  DQN algorithm
    下载: 全尺寸图片

    DQN算法使用均方差更新网络权重来定义目标函数,公式为

    L(ω)=E[r+γmaxQ(s,a,ω)Q(s,a,ω)]2

    本节使用优先经验回放方法在传统DQN算法(算法1)的基础上进行改进,并分别设计智能体(低速欠驱动AUV)的动作空间和奖励函数,使得智能体可以根据执行海域的地形及洋流特点规划出航行距离和航行时间都较优的航行轨迹。

    算法1 传统DQN算法

    输入 智能体的当前状态s

    输出 训练好的智能体模型。

    1)将重放记忆D的容量大小初始化为N

    2)用随机权重θ初始化动作函数Q

    3)用权重θ=θ初始化目标价值函数Q

    4) for episode=1, 2, …, M do:

    初始化序列s1={x1}

    预处理序列φ1=φ(s1)

    5) for t=1, 2, …, T do:

    6)以概率ε选择一个随机动作

    否则选择at=argmaxQ(φ(st),a,θ)

    7)在环境中执行at并观察奖励函数rtxt+1

    8)设置st+1=st,at,xt+1和预处理φt+1=φ(st+1)

    9)在D中存储样本(φt,at,rt,φt+1)

    10)在D中抽取样本(φj,aj,rj,φj+1)

    yj=rjifsisendyj=rj+γmaxaQ(φj+1,a;θ)yj=rj+γQ(st,maxaQ(st,a;θ);θ)
    (1)

    11)设置网络参数θ执行梯度下降步骤

    (yjQ(φj,aj;θ))2

    12)每C步重置Q=Q

    13) end for

    14)更新智能体的当前状态st

    15) end for

    上述过程会不断进行迭代,直到达到最大迭代次数M后终止训练程序。

    2.2.1   改进DQN算法

    传统DQN算法中,在计算时间差分目标(temporal difference target, TD target)时用到了最大化,即式(1),造成了计算的结果大于真实值。所以在网络迭代的过程中,这种最大化造成的过估计会随着迭代次数的增加而不断累积,从而导致传统DQN算法在处理复杂环境下的路径规划时容易陷入过估计,最终导致无法给出合适的航行轨迹[31-32]

    为了解决上述过估计的问题并提高智能体的学习效率,本文使用优先经验回放(prioritized experience reply, PER)策略改进传统DQN算法。PER的优先级是基于经验的时间差误差(temporal difference error, TD-error),用以表示智能体在执行某个动作后所得的奖励与预期奖励之间的差异。TD-error越大表明这个经验对智能体的学习起到正向作用。在经验回放时,优先级高的经验会被智能体优先执行,以便更快地学习到正向经验,从而改进策略,缩短迭代次数。

    只有经验被重放后,PER才会更新当前的TD-error。当需要解决一些复杂的问题,尤其是本文的三维海洋环境下的路径规划时,为了确保TD-error为零时的经验也能够被智能体采样学习到,采用转移i的概率,公式为

    p(i)=pαikpαk

    式中:pi表示第i个经验样本的优先级,α则决定使用优先级的大小。pi公式为

    pi=|δi|+ε

    式中:δi表示TD-error,ε用以防止经验样本TD-error的值为0。

    为了消除采样带来的偏差,引入重要性采样。其目的是为了确定f(x)p(x)分布下的期望。为了使样本符合p(x)分布,还需要额外引入q(x)分布,最终的表达式为

    E[f(x)]=xf(x)p(x)dx=xω(x)f(x)q(x)dx=xg(x)q(x)dx
    (2)

    式中ω(x)表示重要度采样权重。将p(x)=1/Nq(x)=p(j)代入式(2)后得到重要度采样权重函数,公式为

    ωi=(1NP(j))β

    式中β用来消除学习后的偏差。最后,归一化重要度采样权重公式为

    ωi=(NP(j))βmax(xi)ωi

    在三维海洋环境下,通过使用优先经验回放方法改进传统DQN算法训练智能体(低速欠驱动AUV)的算法流程如图9所示。

    图  9  改进DQN算法模型流程
    Fig.  9  Improved DQN algorithm model flow
    下载: 全尺寸图片
    2.2.2   动作设计

    动作选择是指智能体根据策略选取下一步动作的过程,是强化学习核心要素之一。智能体通过采取一定的策略选取下一步的动作。选择不同的动作来获取不同的奖励值,在不同的环境状态选择回报越高的动作具有更高的价值,高回报使得智能体在下一次训练中更倾向于选择该动作[33]。在本文中,智能体能够采用27个方向的动作,如图10所示。动作数值分别为0、1、2、…、25、26,对应的表示方向如图10中色块中的数值所示,例如动作数值16表示对应的方向为沿y轴的正方向运动。需要额外指出的是,动作数值13表示的是静止状态,但在实际的路径规划过程中,不存在静止状态,所以动作数值13在本实验中是不存在的数值,为了避免出现动作13,会在奖励函数中对出现动作13时的情况进行惩罚。所以在本文中,智能体能够采用的动作方向为26个,即动作数值0~12、14~26。

    图  10  动作空间设计
    Fig.  10  Motion space design
    下载: 全尺寸图片

    此外,由于本文使用的是低速欠驱动AUV,而图10给出的智能体的动作方向设定是把AUV当作质点来处理的。这种方法忽略了低速欠驱动AUV本身的方向,可能会出现绘制的轨迹在实际中AUV无法执行的情况。例如当前AUV航行的方向以图10中的13往14的方向且此时的位置坐标在13,如果下一步需要执行的动作数值为0,则是不可能发生的,如果执行的动作为2则是正常的。所以为了避免出现与实际情况不符的动作数值,会在下文中以奖励函数惩罚的方式进行避免。

    2.2.3   奖励函数

    奖励函数是影响智能体路径规划质量的关键因素,也是强化学习的核心要素之一。通过设置合适的奖励函数可以极大地提高智能体搜寻路径的正确率。奖励函数R在状态S下的t时刻到t+1时刻的状态所能获得的期望奖励是Rs=E[Rt+1|St=s],累积奖励函数值Gt,也就是总回报值。

    Gt=Rt+1+γRt+2+=k=0γkRt+k+1

    式中γ是折扣系数,表示未来时刻回报奖励的衰减效果,γ1则衰减效果越小,表示越有远见,从而避免陷入局部最优。

    本文中奖励函数涉及多个方面,包括AUV路径规划的目标和约束、低速欠驱动AUV航行特点的约束以及任务海域中洋流速度与方向的约束等。

    1) AUV路径规划的目标和约束。AUV路径规划的首要目标是到达任务预设的终点,其次需要考虑的是执行的动作是否朝向目标点,最后需要考虑AUV航行规划出的轨迹所需要的时间长短。

    首先,如果AUV在限定能量要求下到达终点,则给予大量正向奖励值。如果AUV未能在能量耗尽前到达终点或撞到障碍物,则给予大量惩罚。

    其次,为了让AUV在任意状态下都倾向于选择朝向目标点的动作,则需要对AUV选择朝向目标点运动的动作给予正奖励,反之则给予相应的惩罚。则AUV朝向目标点的奖励函数为

    Rk2=r0r·[x2+y2+z2x2+y2+z2]

    式中:Rk2为AUV执行动作的奖励函数,r0为初始状态下AUV起点到达目标点的直线距离,r为当前状态距离终点的直线距离,x2+y2+z2表示的是前一个状态AUV距终点的距离,x2+y2+z2表示的是执行当前动作之后的距终点的距离。r0/r用于反映AUV距目标点的远近程度,AUV距目标越近,则AUV获得的奖励值越高。x2+y2+z2x2+y2+z2反映的是如果AUV当前状态与前一个状态相比是远离目标,则结果为负,即给予惩罚;当AUV当前状态与上个状态相比是接近目标,则结果为正,即获得正向奖励。

    最后,需要计算AUV执行每步动作所需要的时间。由于AUV执行的动作方向有26个,相应的只有3个不同的单位长度,即1、23。再根据AUV当前速度与洋流的合速度计算当前AUV的实际速度,即可获得每步AUV所需的航行时间,并给予相应的奖励或惩罚。

    2)低速欠驱动AUV航行约束。虽然本文在使用改进DQN算法对AUV进行路径规划时是把AUV当作质点处理的,但是实际情况下是不可以的。在对低速欠驱动AUV进行路径规划时,需要尽量避免AUV频繁地进行短距离大角度的改变航向。例如,如图11所示,假设当前AUV的航行方向为v,则在下一步的动作数值选择中,若选择2、5、8、11、14、17、20、23、26这9个动作数值时给予奖励,选择其他动作则给予惩罚。从而避免AUV执行不合理的动作。

    图  11  低速欠驱动AUV航行约束
    Fig.  11  Schematic of low-speed underdriven AUV navigation constraints
    下载: 全尺寸图片

    3)洋流速度与方向约束。任务海区的洋流速度与方向,会对低速欠驱动AUV的航行轨迹产生极大的影响。当AUV的航行方向与洋流方向的夹角为锐角时,会提升AUV的航行速度并减少其能量消耗,则给予奖励;当AUV处于逆流航行时,则根据实际情况给予适当的惩罚。并且,对于洋流会推动AUV产生侧向推动从而导致AUV偏离航线的情况,会对AUV执行每步操作时的状态进行修正,即AUV每步运行后的实时坐标是在经过动作数值选择和洋流干扰叠加后的坐标。

    综上,通过充分考虑低速欠驱动AUV的航行特点、路径规划的目标以及洋流速度与方向的约束等方面设计出的奖励函数,可以极大地提高改进DQN算法训练效果的上限。

    本文以低速欠驱动AUV为研究对象,并设定AUV航行时的能耗恒定。选取东经122.95°~东经125.5°和北纬38.55°~北纬40.083 3°的海域作为实验海域,该片海域的地形和洋流情况分别如图56所示。其中,海底地形数据来自于S-57电子海图,洋流数据来自于地球与空间研究(earth & space research, ESR)机构,洋流数据的采集日期为2023年6月17日。图7为实验海域的地形与洋流叠加图。

    本文使用优先经验回放方法改进的DQN算法作为AUV的路径规划算法,AUV的参数设置如表1所示。

    表  1  AUV参数设置
    Table  1  AUV parameter setting
    参数名参数值
    学习效率0.000 4
    折扣系数0.99
    贪心率0.01
    状态空间维度142
    动作空间维度27
    总训练回合数13 600

    为了训练AUV在任务海域进行路径规划,分别让AUV使用改进DQN算法先后在无洋流的环境和有洋流的环境进行路径规划训练。训练方法是在该片海域中随机生成智能体的起点与目标点,起点与目标点坐标在一定的区间内随机选择,如表2所示。

    表  2  训练参数设置
    Table  2  Training parameter setting
    参数名 参数值
    起点经度范围 东经124.00°~东经124.50°
    起点维度范围 北纬39.25°~北纬39.70°
    起点深度范围 −20~0 m
    目标点经度范围 东经123.00°~东经123.67°
    目标点纬度范围 北纬38.55°~北纬38.90°
    目标点深度范围 −48~−25 m

    本文先后对无洋流环境和有洋流环境进行了路径规划的训练。得到了2种环境下的损失函数曲线,如图12所示。

    图  12  有无洋流干扰下的损失函数曲线
    Fig.  12  Loss function curves with and without current interference
    下载: 全尺寸图片

    随机选定起点坐标(东经124.225°,北纬39.458°,0.0 m)和目标点坐标(东经123.314°,北纬38.695°,43.5 m),并分别在无洋流影响下的环境和有洋流影响下的环境的进行路径规划测试,测试结果如图1314所示。

    图  13  无洋流干扰下的路径规划
    Fig.  13  Path planning without current disturbance
    下载: 全尺寸图片
    图  14  有洋流干扰下的路径规划
    Fig.  14  Path planning with current disturbance
    下载: 全尺寸图片

    2种情况下AUV随时间距终点的直线距离以及航行时对应的实时航速如图15所示。

    图  15  AUV随时间到终点的直线距离和实时速度
    Fig.  15  Straight-line distance from AUV over time to the end point and real-time velocity
    下载: 全尺寸图片

    先后对无洋流干扰下的海洋环境与有洋流干扰下的海洋环境进行路径规划实验,并分别迭代13 600次之后,两者的损失数值都相对较小且趋于稳定。如图1314所示,相比于不考虑洋流干扰的AUV航线,在考虑洋流干扰的情况下AUV会更多地选择顺洋流航行的航线。如图15所示,虽然考虑洋流干扰的AUV实际航行的距离更远,但是其航速在整个航行期间都大于不考虑洋流干扰的AUV,并最终比不考虑洋流干扰的AUV节约5.29%的时间到达终点。由于本文假定航行时AUV的能耗恒定,即考虑洋流干扰下的路径规划比不考虑洋流干扰下的路径规划,AUV可以节约5.29%的能量消耗。故使用优先经验回放方法改进的DQN算法可以给AUV提供一条考虑洋流干扰情况下的全局路径规划,并且航行时间更短、能耗更低。

    为了检验改进DQN算法在复杂仿真环境中对低速欠驱动AUV进行路径规划的实用性,通过选定东经117.57°~东经126.91°和北纬35.67°~北纬41.00°的海域作为仿真实验海域,如图16为构建的可视化仿真实验海域。对应的二维彩色海底地形与洋流情况如图17所示。

    图  16  仿真实验海域
    Fig.  16  Simulated experimental sea area
    下载: 全尺寸图片
    图  17  仿真实验海域洋流模型
    Fig.  17  Simulation of experimental ocean current models
    下载: 全尺寸图片

    图17的洋流运动及对应的海底地形情况,可以分析出该片海域的海况比较复杂,使用此海域可以验证改进DQN算法在面对复杂海况时是否可以给AUV绘制出一条时间更短、能耗更低的航线。

    通过设置起点坐标(东经120.487°,北纬39.825°,0.0 m)和终点坐标(东经124.566°,北纬38.864°,−42.8 m),使用改进DQN算法在仿真实验海域进行路径规划,如图18所示。由图18中的给出的AUV路径规划轨迹可以看出,改进DQN算法可以在实验海域完成路径规划。并且结合当前海域的洋流情况,可以看出改进DQN给出的全局路径规划轨迹考虑了当前海域复杂的海洋运动特点,从而使得AUV航行时间更短、能耗更低。

    图  18  仿真实验海域的路径规划轨迹
    Fig.  18  Simulation of path-planning trajectories in the experimental sea area
    下载: 全尺寸图片

    本文主要研究的是在洋流干扰的情况下如何让低速欠驱动AUV的路径规划更为合理,使得低速欠驱动AUV可以降低航行能耗并减少航行时间。

    首先通过介绍洋流的运动并简化,并分析洋流运动对低速欠驱动AUV的影响机理,在此基础之上建立指定任务海域三维地形模型及洋流运动模型,之后使用优先经验回放方法对传统DQN算法进行改进,从而避免传统DQN算法存在过估计的问题,并优化相应的奖励函数。最终AUV可以在有洋流干扰的环境下完成路径规划的任务。通过构建虚拟仿真海洋环境,并建立低速欠驱动AUV模型,将迭代后的路径规划算法应用在仿真AUV上,同样可以完成路径规划任务。实验结果表明,使用优先经验回放方法改进的DQN算法可以给AUV提供一条考虑洋流干扰情况下的全局路径规划,且航行时间更短、能耗更低。

    在未来的工作中会进一步增加海洋动态环境的复杂程度,例如增加运动的物体等障碍物和海洋垂直方向运动的内波,提高低速欠驱动AUV在复杂多变的海域中的路径规划和避障能力。

  • 图  1   低速欠驱动AUV的坐标分解

    Fig.  1   Coordinate decomposition of low-speed underdriven AUV

    下载: 全尺寸图片

    图  2   在洋流影响下的AUV坐标分解

    Fig.  2   Decomposition of AUV coordinates under the influence of ocean currents

    下载: 全尺寸图片

    图  3   洋流对AUV的航行影响

    Fig.  3   Impact of ocean currents on AUV navigation

    下载: 全尺寸图片

    图  4   S-57数据交换结构

    Fig.  4   Structure of S-57 transfer file

    下载: 全尺寸图片

    图  5   某海域海底地形模型

    Fig.  5   Topographic model of the seabed in a sea area

    下载: 全尺寸图片

    图  6   指定海域的洋流情况

    Fig.  6   Currents in the designated sea area

    下载: 全尺寸图片

    图  7   含洋流的三维海洋环境

    Fig.  7   3D marine environment with ocean currents

    下载: 全尺寸图片

    图  8   DQN算法

    Fig.  8   DQN algorithm

    下载: 全尺寸图片

    图  9   改进DQN算法模型流程

    Fig.  9   Improved DQN algorithm model flow

    下载: 全尺寸图片

    图  10   动作空间设计

    Fig.  10   Motion space design

    下载: 全尺寸图片

    图  11   低速欠驱动AUV航行约束

    Fig.  11   Schematic of low-speed underdriven AUV navigation constraints

    下载: 全尺寸图片

    图  12   有无洋流干扰下的损失函数曲线

    Fig.  12   Loss function curves with and without current interference

    下载: 全尺寸图片

    图  13   无洋流干扰下的路径规划

    Fig.  13   Path planning without current disturbance

    下载: 全尺寸图片

    图  14   有洋流干扰下的路径规划

    Fig.  14   Path planning with current disturbance

    下载: 全尺寸图片

    图  15   AUV随时间到终点的直线距离和实时速度

    Fig.  15   Straight-line distance from AUV over time to the end point and real-time velocity

    下载: 全尺寸图片

    图  16   仿真实验海域

    Fig.  16   Simulated experimental sea area

    下载: 全尺寸图片

    图  17   仿真实验海域洋流模型

    Fig.  17   Simulation of experimental ocean current models

    下载: 全尺寸图片

    图  18   仿真实验海域的路径规划轨迹

    Fig.  18   Simulation of path-planning trajectories in the experimental sea area

    下载: 全尺寸图片

    表  1   AUV参数设置

    Table  1   AUV parameter setting

    参数名参数值
    学习效率0.000 4
    折扣系数0.99
    贪心率0.01
    状态空间维度142
    动作空间维度27
    总训练回合数13 600

    表  2   训练参数设置

    Table  2   Training parameter setting

    参数名 参数值
    起点经度范围 东经124.00°~东经124.50°
    起点维度范围 北纬39.25°~北纬39.70°
    起点深度范围 −20~0 m
    目标点经度范围 东经123.00°~东经123.67°
    目标点纬度范围 北纬38.55°~北纬38.90°
    目标点深度范围 −48~−25 m
  • [1] LI Xiaohong, YU Shuanghe. Three-dimensional path planning for AUVs in ocean currents environment based on an improved compression factor particle swarm optimization algorithm[J]. Ocean engineering, 2023, 280: 114610. doi: 10.1016/j.oceaneng.2023.114610
    [2] 李娟, 张韵, 陈涛. 改进RRT算法在未知三维环境下AUV目标搜索中的应用[J]. 智能系统学报, 2022, 17(2): 368−375.

    LI Juan, ZHANG Yun, CHEN Tao. Application of the improved RRT algorithm to AUV target search in an unknown 3D environment[J]. CAAI transactions on intelligent systems, 2022, 17(2): 368−375.
    [3] BI Anyuan, ZHAO Fengye, ZHANG Xiantao, et al. Combined depth control strategy for low-speed and long-range autonomous underwater vehicles[J]. Journal of marine science and engineering, 2020, 8(3): 181. doi: 10.3390/jmse8030181
    [4] 刘甲, 周伟江, 马伟建. 低速AUV航渡过程中减少洋流影响的方法[J]. 舰船科学技术, 2020, 42(3): 88−92,97.

    LIU Jia, ZHOU Weijiang, MA Weijian. Adaptive decision methods to reduce effect on ocean current to low-speed AUV sailing[J]. Ship science and technology, 2020, 42(3): 88−92,97.
    [5] LIU Rundong, CHEN Zonggan, WANG Zijia, et al. Intelligent path planning for AUVs in dynamic environments: an EDA-based learning fixed height histogram approach[J]. IEEE access, 2019, 7: 185433−185446. doi: 10.1109/ACCESS.2019.2960859
    [6] 应泽光, 何琪. 基于改进A*算法的无人艇复杂水域路径规划[J]. 机电技术, 2022, 45(5): 33−35.

    YING Zeguang, HE Qi. Complex water path planning for unmanned boats based on improved A* algorithm[J]. Mechanical & electrical technology, 2022, 45(5): 33−35.
    [7] WANG Yanlong, LIANG Xu, LI Baoan, et al. Research and implementation of global path planning for unmanned surface vehicle based on electronic chart[C]//International Conference on Mechatronics and Intelligent Robotics. Kunming: Springer, 2017: 534−539.
    [8] LI Ye, JIANG Yanqing, MA Shan, et al. Inverse speed analysis and low speed control of underwater vehicle[J]. Journal of central south university, 2014, 21(7): 2652−2659. doi: 10.1007/s11771-014-2226-7
    [9] DOHAN K. Ocean surface currents from satellite data[J]. Journal of geophysical research (oceans), 2017, 122(4): 2647−2651. doi: 10.1002/2017JC012961
    [10] HU Siyuan, XIAO Shuai, YANG Jiachen, et al. AUV path planning considering ocean current disturbance based on cloud desktop technology[J]. Sensors, 2023, 23(17): 7510. doi: 10.3390/s23177510
    [11] 李慧, 赵琳, 毛英. 海况干扰下潜艇六自由度运动分析[J]. 哈尔滨工程大学学报, 2017, 38(1): 94−100. doi: 10.11990/jheu.201511027

    LI Hui, ZHAO Lin, MAO Ying. Analysis of six-degree-of-freedom motion in submarines under sea disturbance[J]. Journal of Harbin engineering university, 2017, 38(1): 94−100. doi: 10.11990/jheu.201511027
    [12] XING Yuan, YOUNG R, NGUYEN G, et al. Optimal path planning for wireless power transfer robot using area division deep reinforcement learning[J]. Wireless power transfer, 2022, 9(1): 9921885. doi: 10.1155/2022/9921885
    [13] 郭兴海, 计明军, 张卫丹, 等. 可变洋流环境中自主水下航行器动态路径规划的改进QPSO算法[J]. 系统工程理论与实践, 2021, 41(8): 2112−2124.

    GUO Xinghai, JI Mingjun, ZHANG Weidan, et al. Improved QPSO algorithm for dynamic path planning of autonomous underwater vehicles in variable ocean current environment[J]. Systems engineering-theory & practice, 2021, 41(8): 2112−2124.
    [14] KIANI F, SEYYEDABBASI A, ALIYEV R, et al. Adapted-RRT: novel hybrid method to solve three-dimensional path planning problem using sampling and metaheuristic-based algorithms[J]. Neural computing and applications, 2021, 33(22): 15569−15599. doi: 10.1007/s00521-021-06179-0
    [15] 刘锋, 张严, 陈彦勇, 等. S-57电子海图的快速读取及可视化存储[J]. 舰船科学技术, 2014, 36(7): 108−112.

    LIU Feng, ZHANG Yan, CHEN Yanyong, et al. Rapid reading and visual storage of the S-57 electronic chart[J]. Ship science and technology, 2014, 36(7): 108−112.
    [16] 扈震, 杨之江, 马振强. 基于S-57标准的电子海图三维可视化[J]. 地球科学, 2010, 35(3): 471−474.

    HU Zhen, YANG Zhijiang, MA Zhenqiang. Electronic navigation chart 3D visualization based on S-57[J]. Earth science, 2010, 35(3): 471−474.
    [17] HU Hao, ZHOU Yongjian, WANG Tonghao, et al. A multi-task algorithm for autonomous underwater vehicles 3D path planning[C]//2020 3rd International Conference on Unmanned Systems. Harbin: IEEE, 2020: 972−977.
    [18] KRIEG M, MOHSENI K. Dynamic modeling and control of biologically inspired vortex ring thrusters for underwater robot locomotion[J]. IEEE transactions on robotics, 2010, 26(3): 542−554. doi: 10.1109/TRO.2010.2046069
    [19] BIJLSMA S J. Optimal ship routing with ocean current included[J]. Journal of navigation, 2010, 63(3): 565−568. doi: 10.1017/S0373463310000159
    [20] YANG Yang, LI Juntao, PENG Lingling. Multi-robot path planning based on a deep reinforcement learning DQN algorithm[J]. CAAI transactions on intelligence technology, 2020, 5(3): 177−183. doi: 10.1049/trit.2020.0024
    [21] HAN J. An efficient approach to 3D path planning[J]. Information sciences, 2019, 478: 318−330. doi: 10.1016/j.ins.2018.11.045
    [22] LI Jianxin, CHEN Yiting, ZHAO Xiuniao, et al. An improved DQN path planning algorithm[J]. The journal of supercomputing, 2022, 78(1): 616−639. doi: 10.1007/s11227-021-03878-2
    [23] QIAO Lei, ZHANG Weidong. Trajectory tracking control of AUVs via adaptive fast nonsingular integral terminal sliding mode control[J]. IEEE transactions on industrial informatics, 2020, 16(2): 1248−1258. doi: 10.1109/TII.2019.2949007
    [24] GU Yuwan, ZHU Zhitao, LYU Jidong, et al. DM-DQN: Dueling Munchausen deep Q network for robot path planning[J]. Complex & intelligent systems, 2023, 9(4): 4287−4300.
    [25] 赵玉新, 杜登辉, 成小会, 等. 基于强化学习的海洋移动观测网络观测路径规划方法[J]. 智能系统学报, 2022, 17(1): 192−200.

    ZHAO Yuxin, DU Denghui, CHENG Xiaohui, et al. Path planning for mobile ocean observation network based on reinforcement learning[J]. CAAI transactions on intelligent systems, 2022, 17(1): 192−200.
    [26] WU Keyu, WANG Han, ESFAHANI M A, et al. Achieving real-time path planning in unknown environments through deep neural networks[J]. IEEE transactions on intelligent transportation systems, 2022, 23(3): 2093−2102. doi: 10.1109/TITS.2020.3031962
    [27] YANG Jian, XU Xin, YIN Dong, et al. A space mapping based 0–1 linear model for onboard conflict resolution of heterogeneous unmanned aerial vehicles[J]. IEEE transactions on vehicular technology, 2019, 68(8): 7455−7465. doi: 10.1109/TVT.2019.2919737
    [28] PHUNG M D, HA Q P. Safety-enhanced UAV path planning with spherical vector-based particle swarm optimization[J]. Applied soft computing, 2021, 107: 107376. doi: 10.1016/j.asoc.2021.107376
    [29] ZHANG Jiaxin, LIU Meiqin, ZHANG Senlin, et al. Robust global route planning for an autonomous underwater vehicle in a stochastic environment[J]. Frontiers of information technology & electronic engineering, 2022, 23(11): 1658−1672.
    [30] WANG Jiankun, JIA Xiao, ZHANG Tianyi, et al. Deep neural network enhanced sampling-based path planning in 3D space[J]. IEEE transactions on automation science and engineering, 2022, 19(4): 3434−3443. doi: 10.1109/TASE.2021.3121408
    [31] MELO A G, PINTO M F, MARCATO A L M, et al. Dynamic optimization and heuristics based online coverage path planning in 3D environment for UAVs[J]. Sensors, 2021, 21(4): 1108. doi: 10.3390/s21041108
    [32] TAN Li, ZHANG Hongtao, SHI Jiaqi, et al. A robust multiple unmanned aerial vehicles 3D path planning strategy via improved particle swarm optimization[J]. Computers and electrical engineering, 2023, 111: 108947. doi: 10.1016/j.compeleceng.2023.108947
    [33] QI Yongqiang, LI Shuai, KE Yi. Three-dimensional path planning of constant thrust unmanned aerial vehicle based on artificial fluid method[J]. Discrete dynamics in nature and society, 2020: 4269193.
WeChat 点击查看大图
图(18)  /  表(2)
出版历程
  • 收稿日期:  2023-11-02
  • 网络出版日期:  2024-12-24

目录

/

返回文章
返回