2. 天津工业大学 机械工程学院博士后工作站,天津 300387;
3. 天津动核芯科技有限公司,天津 300350;
4. 天津职业技术师范大学 汽车与交通学院,天津 300222;
5. 大连民族大学 机电工程学院,辽宁 大连 116600
2. College of Mechanical Engineering Post-doctoral Research Station, Tianjin Polytechnic University, Tianjin 300387, China;
3. DongHexin Technology Co., Ltd., Tianjin 300350, China;
4. College of Automobile and Transportation, Tianjin University of Technology and Education, Tianjin 300222, China;
5. College of Mechanical and Electrical Engineering, Dalian Minzu University, Dalian 116600, China
自主机器人导航所在环境一般是未知的、动态的、部分可观测的。自主机器人导航需要具备以下能力:探索未知环境、构建地图、目标导航的路径规划与执行、环境变化的适应性。
传统的导航方法基于全局定位与地图构建(simultaneous localization and mapping,SLAM),SLAM由于定位飘移、传感器噪音、环境改变以及有限的计算规划能力使得该方法很难推广到实际应用[1]。近年来,由于神经网络的强大的表征能力,尤其是强化学习与深度神经网络的结合使得深度强化学习(deep reinforcement learning,DRL)广泛应用到机器人导航领域[2-5]。然而DRL基于当前感知做出决策,很难具有泛化性和推理能力,并且很难应用于部分观测环境中。递归神经网络(recurrent neural network,RNN)和长短时记忆神经网络(long short-term memory, LSTM)与DRL相结合在机器人导航领域虽然取得了一定进展[6-7],然而隐藏节点和权重所能记住的数据十分有限,且只能记住一些有一定内在规律和特征的信息,对于长程记忆则显得无能为力。
为了解决神经网络长程记忆的问题,近3年涌现出了各种的记忆神经网络(memory neural networks,MNN)模型,MNN采用外部记忆矩阵实现,将记忆与计算分离开来,采用可微的读写机制访问外部记忆网络,整个系统可微,允许端对端的训练。MNN与DRL结合非常适合解决时间序列决策问题,将其用于导航领域是非常有前景的新兴研究领域[8-9]。
1 MNN结合导航任务的工作机理近年来将MNN用于导航领域主要有3种神经网络模型:MemNN(memory networks)、DNC(differentiable neural computer)以及DND(differentiable neural dictionary),下面分别介绍将其用于导航领域的工作机理。
1.1 MemNN在导航中的应用Sukhbaatar等[10]首先提出MemNN,这是一种无写操作的记忆结构,记忆存储是固定的。网络学到的内容是如何从固定记忆池中去访问和读取信息,而不是如何去改写内容。该模型被广泛用于情感分析[11]、对话训练[12]等领域。Oh等[13]首次将MemNN与DRL相结合并在三维Minecraft环境中实现导航任务。相继提出了:记忆Q网络(memory Q-network,MQN)、循环记忆Q网络(recurrent memory Q-network,RMQN)以及反馈循环记忆Q网络(feedback recurrent memory Q-network,FRMQN),如图1所示。
Download:
|
|
MemNN+DRL结构采用一个递归控制器DRL与外部记忆MemNN进行交互,基于时间上下文实现寻址机制,有效处理了部分观测、长时依赖导航策略以及相似地图的知识迁移问题。MemNN+DRL的导航工作机理如下:将机器人最近遇到的M步观察经过编码写入到MemNN中,相当于M步的情节记忆,采用强化学习算法端对端训练参数,最终获得导航能力。读写机制如图2所示。
Download:
|
|
具体模块功能如下。
1)编码模块
将原始的图像信息提取出高层特征信息。将一个c通道的h×w维的图像Xt编码成一个e维特征向量et:
$ {{e}}_{t}={{\varphi} }^{{\rm{enc}}}\left({X}_{t}\right) $ | (1) |
2)写记忆操作
将最近M步的观察实现矩阵转换,以键记忆模块和值记忆模块形式分别存储到记忆中,如式(2)、(3):
$ {{M}}_{t}^{\rm{key}}={{W}}^{\rm{key}}{{E}}_{t} $ | (2) |
$ {{M}}_{t}^{\rm{val}}={{W}}^{\rm{val}}{{E}}_{t} $ | (3) |
式中:矩阵
3)读记忆操作
机器人导航过程中,根据最近几步的观测值计算上下文向量ht,然后通过计算上下文向量ht和键记忆模块
$ {p}_{t,i}=\frac{\exp\left({{h}}_{t}^{\rm{T}}{{M}}_{t}^{\rm{key}}[i]\right)}{\displaystyle\sum _{j=1}^{M}\exp\left({{h}}_{\rm{t}}^{{\rm{T}}}{{M}}_{t}^{\rm{key}}[j]\right)} $ | (4) |
$ {{o}}_{t}={{M}}_{t}^{\rm{val}}{P}_{t} $ | (5) |
4)注意力机制
注意力机制在文本识别、图像识别、问答系统、机器翻译中被广泛深入研究[14-18]。注意力机制由一个注意力权重表示,越大的权重代表对应位置i越重要。在导航问题中,注意力机制不仅关注当前观测值与记忆模块的匹配度,而且考虑之前几步观测序列与记忆模块的匹配度,因此是一种基于时间序列的注意力机制。在FRMQN中,采用LSTM结构的注意力机制,如式(6)所示:
$ \left[{h}_{t},{c}_{t}\right]={\rm{LSTM}}\left(\left[{e}_{t},{o}_{t-1}\right],{h}_{t-1},{c}_{t-1}\right) $ | (6) |
其中,上一步召回的记忆ot−1作为LSTM输入的一部分,这允许FRMQN不仅根据当前的观测序列还根据之前检索到的记忆来实现多级推理过程,这与MemNN中的多级跳结构非常类似[19]。
5)预测行为值函数
记忆模块的输出是ot,它表示了概率统计上的机器人的记忆模块和当前上下文输入最相关的特征向量,利用这个特征向量ot产生相应的Q值输出,实现动作选择。这里的qt是一个估计的状态行为值函数,用MLP多重前向网络实现。如式(7)所示:
$ \begin{array}{l} {g}_{t}=f({{{W}}}^{h}{h}_{t}+{o}_{t}) \\ {q}_{t}={W}^{q}{g}_{t} \end{array} $ | (7) |
式中:Wh、Wq是其权值,最后一层利用softmax作为输出。利用目标值函数和当前值函数的误差来训练整个模型,整个过程数据流通非常平滑,全程可微,此模型可以利用误差反向传播进行训练,最终优化W key、W val、W h、W q矩阵。
1.2 DNC在导航中的应用Google DeepMind在Nature首次提出了DNC模型[20]。其强大的推理能力使其在自然语言理解、算法推理、视觉推理中被广泛深入研究[21-25]。DNC具有递归神经控制器,可以通过执行可微的读操作和写操作去访问外部记忆资源。DNC结构如图3所示。a为递归控制器模块,其输入为外部输入向量和从记忆中读出R维向量,输出为外部输出向量和交互参量,这些交互参量用来确定读、写操作的参数。b为多个读头和一个写头,用来实现对记忆的读写操作。c为记忆模块,是一个N×W的记忆矩阵。d是每个记忆位置的使用度向量,用来记录目前每个记忆位置的使用情况,其中时间链接矩阵记录了写入的顺序,时间顺序用箭头表示。Parisotto[26]首次将DNC用于导航任务,将记忆模块看作神经地图(neural map),下面分别对每个模块进行说明。
Download:
|
|
1)递归控制器
每个时间步t控制器从环境接收当前感知向量st,机器人首先根据当前感知向量st和当前的全局读向量rt产生一个上下文向量qt,接着通过读头从上一时刻神经地图Mt-1中读取R维读入向量,机器人控制器根据当前输入向量st和rt来输出向量ct。ct用来得到策略输出
2)读操作
上下文向量qt基于当前输入st和rt得到,利用上下文向量qt和地图Mt中的每一个位置特征
$ \begin{array}{c} {{{{{q}}}}}_{t}={{W}}\left[{{{s}}}_{t},{{{r}}}_{t}\right]{,{{a}}}_{t}^{\left(x,y\right)}={{{q}}}_{t} \cdot {{{M}}}_{t}^{\left(x,y\right)}, \\ {{{\alpha }}}_{t}^{(x,y)}=\dfrac{{e}^{{a}_{t}^{(x,y)}}}{{\displaystyle\sum }_{(w,z)}{e}^{{a}_{t}^{(w,z)}}} \\ {{{c}}}_{t}=\displaystyle\sum _{(x,y)}{{{\alpha}} }_{t}^{(x,y)}{{{M}}}_{t}^{(x,y)} \end{array} $ | (8) |
3)写操作
给定机器人当前时刻t的位置(xt,yt),写操作的输入为:当前感知向量st,全局读向量rt,上下文读向量ct,和当前的神经地图中(xt,yt)的特征向量
写操作利用新的特征向量
$ {M}_{t+1}^{(a,b)}=\left\{\begin{array}{c}{w}_{t+1}^{({x}_{t},{y}_{t})},\quad\left(a,b\right)=({x}_{t},{y}_{t})\\ {M}_{t}^{(a,b)},\quad\left(a,b\right)\ne ({x}_{t},{y}_{t})\end{array}\right. $ | (9) |
4)注意力机制
DNC构建了3种注意力机制:基于内容的注意力机制、时间机制和动态记忆分配机制。其中基于内容寻址和动态记忆分配的方式决定写入记忆的位置;基于内容寻址和时间链接矩阵决定读出记忆位置。注意力机制由交互向量参数Et决定。
实验在三维ViZDoom环境下验证,对于更加复杂的迷宫环境,其长时记忆能力、泛化性能力均优于FRMQN。这是由于环境越来越大,越来越复杂,需要记忆的知识越来越多,MemNN记忆结构只能记忆M步历史,而DNC可以记忆整个地图,并且可以根据环境改变动态修改地图,因此具有更好的不同环境间的知识迁移能力及适应动态环境的能力。然而DNC学到的参数较多,除了学习控制器网络参数外,还要学习读写操作的交互参数Et。
1.3 DND在导航中的应用Pritzel等[27]提出了神经情节控制模型(neural episodic control,NEC),用于实现机器人导航。作者指出当前的深度强化学习模型存在共同的弊端:所有深度强化学习模型(包括MemNN、DNC)都是参数化模型,需要采用随机梯度下降法学习参数矩阵,如果参数矩阵较多,收敛速度缓慢,尤其是导航领域存在稀疏回报问题,整个过程很难收敛。而强化学习算法本身,尤其是Q学习是通过值迭代学习最优策略,而表格形式是最适合强化学习的知识表示形式。如果能将缓慢更新的状态表征用深度网络表示,将迅速更新的值函数用表格的形式表示,则更为有效。因此提出了一种无参数的记忆机构——可微神经字典(DND)。类似于Key-Value记忆模型,将参数表示的键(状态S)与表格表示的值(行为值函数V)相结合,并在机器人选择行为期间使用基于上下文的软注意力机制来检索有用的值函数。允许自由读写,并且采用了追加写操作,使得写操作更加简单。每个行为a都有对应的DND记忆模块,学习采用N步Q强化学习算法,同时采用了类似于DQN中的回放机制。
1)NEC结构
NEC结构如图4所示。该结构分成3个部分:卷积神经网络;一系列DND记忆模块(即行为记忆模块Ma);以及一个最终的网络,该网络将动作记忆模块的读出转换成Q值。卷积神经网络将视觉感知st转换成关键字ht。每个行为对应一个行为记忆模块Ma,每个行为记忆模块Ma由键记忆模块hi和值记忆模块Qi组成。记忆模块从关键字hi映射到值Qi是一个联想关系,与数据字典类似,根据当前关键字ht在记忆模块Ma中读出相应的值Qt,记忆模块Ma的输出即为对应行为a的Q(s,a)值,不同的记忆Ma共享相同的卷积网络。机器人根据最高的Q值估计来决定在每一步中执行哪个动作,然后根据N步Q学习更新值函数和相应的权值。
Download:
|
|
2)读操作
读操作就是在DND上将当前关键字h映射为输出值Q(s,a),如式(10)所示:
$ Q(s,a)=\sum _{i}{w}_{i}{Q}_{i}{,w}_{i}=\dfrac{k(h,{h}_{i})}{\displaystyle\sum _{j}k(h,{h}_{j})} $ | (10) |
这里hi是键记忆模块的第i个元素,Qi是值记忆模块的第i个元素。K(x,y)是一个相似度函数。因此DND的读操作相当于在记忆中搜索与h最匹配的那些记忆,输出是记忆中对应Qi值的加权和,这是一种基于内容的注意力机制,没有考虑时间相关性。从大容量的记忆里读取采用最近邻方法(k-d树,详情介绍见文献[28])。
3)写操作
查找结束后,将一个新的键−值对写入记忆。写入的过程是一个追加(append-only)写操作,即将键−值对分别写入到键记忆模块和值记忆模块的末尾,无需计算写入位置,简化写入操作。如果键已经存在记忆中,则对应的值函数Qi根据N步Q学习更新,写入操作如式(11):
$\begin{array}{*{20}{l}} {\;\;\;\;\;\;\;\;\;\;\;{Q_i} \leftarrow {Q_i} + \alpha ({Q^{\left( N \right)}}\left( {s,a} \right) - {Q_i})}\\ \begin{array}{l} {Q^{\left( N \right)}}\left( {{s_t},a} \right) = \displaystyle\sum\nolimits_{j = 0}^{N - 1} {{\gamma ^j}} {r_{t + j}} + {\gamma ^N}{\max _{a'}}Q({s_{t + N}},a') \end{array} \end{array} $ | (11) |
这里的写操作类似于Q表更新,只不过这里的Q表示随着时间动态增长的。学习率
4)参数更新
类似于DQN的回放机制,将每次的转移实例(st, at, rt)存储在回放缓冲区中,其中
该方法类似于基于实例的学习,在Atari游戏中验证,在数据有效性和收敛速度方面,优于DQN、A3C、Prioritised DQN算法。
1.4 不同记忆神经网络的优缺点3种记忆结构都采用了软关注度机制,利用DRL实现误差反向传播,整个过程均是可微的、端对端的结构。用于部分可观测导航任务均取得了优于LSTM+DRL的效果。笔者分析了不同记忆神经网络的写操作、读操作、注意力机制、存储知识、训练参数、记忆结构,以及将其应用于导航领域的各自优缺点,如表1所示。从表1可以看出,MemNN与DND存储知识是情节记忆,即存储了大量的经验序列,而DNC存储的是真正的空间地图。在训练时间上,DNC训练参数最多,训练时间长,因此将其用于导航领域常常出现不收敛的问题;而DND训练参数少,训练时间快,与基于实例的机器学习类似。
MNN的飞速发展也就是近三年的事情,这些记忆结构大部分应用在自然语言处理、问题回答系统、视觉推理等领域,机器人导航领域没有得到广泛关注。在有限的一些文献中,主要分成以下几个改进方向。
2.1 关注度机制的改进Neural Slam[29]将SLAM与DNC深入结合,将SLAM中的运动预测和定位嵌入到软注意力寻址机制中,实现有偏的读写操作,DNC作为环境地图的表示,整个过程采用深度强化学习A3C实现,是一个端对端的训练模型,Neural Slam模型如图5所示。
Download:
|
|
在每个时间步中,将输入直接提供给LSTM单元,它给出一个隐藏状态ht。使用这个隐藏状态ht来发出一组交互参量,根据这些交互参量
该方法优点是将SLAM与DNC很好地融合,改进了DNC的软注意力机制,使得机器人不断更新其位置信念。缺陷是输入只是激光测距信息,没有高维视觉信息,构建的是一个度量地图。
2.2 写入机制的改进如前所述,神经地图的主要缺点是机器人时刻知道自己的绝对位置,并且其写入机制是一种强写入机制(只要重新写入,之前的信息就被替代),难以实现长期信息的维护。因此Emilio Parisotto 在进一步的研究工作中[26, 30],将DNC看做一个2维空间地图,采用了基于GRU的写操作和自我为中心的神经地图(ego neural map)的模型,采用A2C算法学习。在更复杂的3维ViZDoom环境中验证,性能优于传统的Neural Map方法。
1)软写入机制
写操作利用新的特征向量替换记忆中当前位置的向量,这是一种强写入机制,强写入机制不保留之前的记忆内容。文献[31]提出基于GRU的写入机制。GRU写操作在递归神经网络中有着较长的研究历史,GRU写操作比强写入机制具有更长久保持记忆的能力。
2)主动神经定位
文献[30]进一步对绝对位置进行改进,提出了一种“主动神经定位器”,它是一种完全可微的神经网络,能够准确有效地进行定位。该模型融合了传统的基于滤波的定位方法的思想,利用具有乘法交互的状态结构化信念来传播信念,并将其与策略模型相结合,利用最少的步骤精确地进行定位。采用端到端强化学习的方法对主动神经定位器进行训练。
2.3 与VIN的融合传统深度强化学习系统缺乏明确的规划计算。Tamar等[32]提出了值迭代网络(value iteration networks, VIN),这是一个嵌入了“规划模块”的完全可微的神经网络。方法的巧妙之处是观察到经典的值迭代(VI)规划算法可以由特定类型的CNN表示,通过在标准的前馈网络中嵌入VI网络模块,使得策略训练起来很简单,VIN策略可以更好地泛化到新的、不可见的环境。但是该方法由于没有记忆模块,因此无法适应部分可观测环境。下面是将VIN与MNN相结合进行改进。
1) CMP
Gupta等[33]将地图构建和VIN模块结合,设计了一个CMP(cognitive mapping and planning)结构用来实现部分观测环境下的导航任务,采用模仿学习DAGGER算法实现真实室内场景下的导航,性能优于LSTM+DRL模型,CMP结构如图6所示。
Download:
|
|
图6中模型的主要改进之处如下:
地图构建利用机器人的观察值得到,生成一个以自我为中心的多尺度信念地图。地图是一个二维的空间记忆结构,将一个三维环境投射到二维栅格环境中去。信念更新方式是训练一个卷积神经网络根据观察到的第一人称视图来预测更新。
规划器利用自我为中心的多尺度信念地图和目标位置来规划当前动作。规划器采用VI模型,使用一个可训练、可微的分层的值迭代网络。
2) MACN
Khan等[34]将DNC与VIN相结合应用到部分可观测环境下的导航问题,提出了一种记忆扩展控制网络(memory augmented control network,MACN)。结构如图7所示,该方法并没有尝试将一个三维环境投射为二维栅格环境,而是直接计算环境的信念空间,并把这种信念值存入一个可微记忆DNC中,采用监督学习实现了连续控制的机器人在一个三维环境下的导航任务。
Download:
|
|
MACN是利用VI模块来学习局部信念值,并将这种局部信念值存入一个可微记忆DNC中,DNC描述了整个环境的信念空间。这恰恰是采用了分层强化学习中option的思想[35],更适合高维度的状态空间和行为空间。
规划采用了分层的结构:低层采用VIN实现局部规划,高层利用DNC学习全局规划。低层规划模块利用丰富表征的特征信息计算局部环境的最优策略,高层规划将得到的局部策略和当前的稀疏表征作为输入,采用基于DNC的记忆模块,来产生一个全局环境的最优策略。
2.4 与基于模型的强化学习结合基于模型的强化学习对于实现导航任务非常有效。然而生成时间模型(generative temporal models,GTMs)的构建在复杂的部分观测三维环境下是非常困难的。大多数GTMs,例如隐马尔可夫模型[36]和卡尔曼滤波器及其非线性扩展[37],这些模型中使用的固定阶马尔可夫假设不足以描述实际系统的特性。递归神经网络比固定阶马尔科夫假设约束的模型具有显著的优势,最近的GTMs,例如变分递归神经网络[38]和深度卡尔曼滤波器[39]都是建立在递归神经网络之上,原则上这些递归神经网络可以解决变阶马尔科夫问题。然而由于其参数太多使得实际应用起来效率极低。Gemici等[40]将记忆神经网络与生成时间模型相结合,提出了带记忆的时间生成模型(GTMMs),该模型实现了三维环境的感知建模,但没有实现导航任务。Fraccaro等[41]将生成时间模型与DND相结合,由于在部分观测的三维环境中学习生成时间模型非常困难,因此提出一个动作条件生成模型(action-conditioned generative model)来对环境建模,在二维和三维环境中实现上百步的一致预测。为了解决部分可观测问题,DeepMind 团队[42]引入了一种新的模型——外部记忆、RL和状态推断网络相结合(MERLIN),MERLIN结构如图8所示。
Download:
|
|
创新之处是提出基于记忆的预测器(memory-based predictor,MBP)。MBP是一个无监督模型。MBP的输入来自于多模态信息(例如图像信息It, 速度信息vt, 回报值rt−1, 行为at−1以及文本命令Tt),下一个状态根据记忆中保存的之前的状态变量和行为来预测。另一种概率分布,即后验概率,根据新的观测值修正了这一先验,从而形成对状态变量更好地估计。在MERLIN中,策略模块对记忆模块只能进行只读访问。MERLIN在部分观测三维环境中验证,机器人快速地建立一个地图的近似模型,从这个模型中它可以快速导航回目标点。
综上所述,MNN在导航领域的研究进展如图9所示。
Download:
|
|
为了弥补仿真器和真实场景之间的鸿沟,许多研究者提出了大量的真实、高仿真度的仿真环境,可以进一步将算法移植到真实环境中去。常用的三维导航仿真环境有DeepMind Lab (Beattie et al 2016)[43]、Malmo (Johnson et al 2016)[44]、ViZDoom(M. Kempka,2016)[45],然而这些仿真环境存在一个主要的问题:没有真实场景图片。
文献[46]提出了一个三维房屋模拟器House3D,建立在SUNCG[47]的基础上,该数据集包含数千个不同的合成室内场景,配有各种对象和布局,它的视觉多样性和丰富的内容为研究强化学习智能体的语义泛化开辟了道路。另外,HoME[48]和MINOS[49]也提供了合成的大范围室内环境,但是均没有提供与环境的交互。文献[50-51]构建了一个可交互的三维高仿真环境AI2-THOR,它由逼真的三维室内场景组成,其中智能体可以在场景中导航并与对象交互来执行任务。该环境可以实现深度强化学习、模仿学习、交互学习、规划学习、视觉问题回答、无监督表示学习、对象检测和分割以及认知学习模型。Mirowski等[52]提出了一种新的交互式环境“StreetLearn”,从真实世界图片和谷歌街景中获得信息。笔者从以下几个方面总结了不同仿真环境的境的特点,如表2所示。
综上所述,不同记忆神经网络的发展为解决视觉导航任务提供了很多有效的模型,但是基于记忆神经网络的导航领域仍然存在多个方面的问题,例如:部分观测、延迟回报、泛化性差、数据有效性有待提高、环境模型构建等问题。以后的发展主要集中在如何构建更有效的记忆结构,实现更有效的学习;如何与新发展起来的DRL方法相结合,例如元强化学习、多目标强化学习等;如何与概率统计模型相结合,实现更有效的基于环境模型的视觉导航;以及与图模型相结合,发展出更有效的图记忆模型。下面主要给出3个最有前景的发展方向。
1)基于神经动力学联想记忆
以上提到的DNC、MemNN、DND的研究都是基于外部记忆的。这种外部记忆的存储形式及读、写机制存在以下问题:①控制器与外部记忆完全分离,是一个不严格端对端的结构,影响学习效果;②记忆的读、写过程类似于CPU访问存储器的过程,缺乏生物学的解释。
基于神经动力学的联想记忆网络是日益兴起的一个热点领域。这种基于神经动力学的联想记忆具有更好的生物学解释性,联想记忆网络一般不受特定结构限制、可以实现增量的序列学习,并且以一种自组织、无监督的形式。Danihelka等将一个联想记忆模型作为部件引入LSTM网络中,从而在不引入额外参数的情况下增加网络容量。Paris提出自组织联想记忆网络模型,并且将其用于人机交互、时空特征的学习等领域,但是笔者尚未发现将其用于导航领域,因此如何将联想记忆模型和导航领域结合是最新的研究热点。
2)基于图网络的记忆结构
图网络(graph network, GN)是一种最新兴起的研究方向,还没有比较成熟的网络模型。图网络是将消息传递的思想扩展到图结构上的神经网络。图中的每个节点都用一组神经元来表示其状态,每个节点都可以收到相邻节点的消息,并更新自己的状态。
应用到不同任务,有不同的图网络结构。例如图卷积网络(graph convolutional network, GCN)、消息传递网络(message passing neural network, MPNN)等。实际上,导航任务中的记忆地图适合用这种图网络来表示,因此将记忆网络扩展到图网络结构中,并应用于导航领域也是一个非常有前景的研究方向。
3)与概率图模型相结合
概率图模型和神经网络有着类似的网络结构,但两者也有很大区别。概率图模型中节点是随机变量,概率图的结构主要描述随机变量间的依赖关系,一般是稀疏连接,优点是可以有效地进行统计推断。而神经网络中的神经元是计算节点,每个神经元没有直观解释。近些年来概率图模型和神经网络结合越来越紧密,例如利用神经网络强大的表示能力来建模图模型中的推断问题(变分编码器),生成问题(生成对抗网络)等,包括2.4节中提到的模型都是将概率图模型与神经记忆网络相融合用于实现导航任务。概率图模型与记忆神经网络深度融合将是导航领域最有前景的研究方向之一,最有希望实现空间地图的建模,实现基于模型的强化学习。
[1] |
刘强, 段富海, 桑勇. 复杂环境下视觉SLAM闭环检测方法综述[J]. 机器人, 2019, 41(1): 112-123, 136. LIU Qiang, DUAN Fuhai, SANG Yong. A survey of loop-closure detection method of visual SLAM in complex environments[J]. Robot, 2019, 41(1): 112-123, 136. DOI:10.3969/j.issn.2096-0182.2019.01.016 (0) |
[2] | KULKARNI T D, SAEEDI A, GAUTAM S, et al. Deep successor reinforcement learning[J]. arXiv preprint arXiv: 1606.02396v1, 2016. (0) |
[3] | MNIH V, BADIA A P, MIRZA M, et al. Asynchronous methods for deep reinforcement learning[C]//Proceedings of the 33rd International Conference on International Conference on Machine Learning. New York, USA, 2016: 1928−1937. (0) |
[4] | ZHU Yuke, MOTTAGHI R, KOLVE E, et al. Target-driven visual navigation in indoor scenes using deep reinforcement learning[C]//Proceedings of 2017 IEEE International Conference on Robotics and Automation (ICRA). Singapore, 2016. (0) |
[5] | MIROWSKI P, PASCANU R, VIOLA F, et al. Learning to navigate in complex environments[C]//Proceedings of the 5th International Conference on Learning Representations. Toulon, France, 2017. (0) |
[6] | JADERBERG M, MNIH V, CZARNECKI W M, et al. Reinforcement learning with unsupervised auxiliary tasks[C]//Proceedings of the 5th International Conference on Learning Representations. Toulon, France, 2016. (0) |
[7] | HEESS N, HUNT J J, LILLICRAP T P, et al. Memory-based control with recurrent neural networks[C]//Proceedings of the Workshops of Advances in Neural Information Processing Systems. Montreal, Canada, 2015: 301−312. (0) |
[8] | RAMANI D. A short survey on memory based reinforcement learning[J]. arXiv preprint arXiv:1904.06736v1, 2019. (0) |
[9] | SAVINOV N, DOSOVITSKIY A, KOLTUN V. Semi-parametric topological memory for navigation[C]//Proceedings of the 6th International Conference on Learning Representations. Vancouver, Canada, 2018. (0) |
[10] | SUKHBAATAR A, WESTON J, FERGUS R, et al. End-to-end memory networks[C]//Proceedings of the 28th International Conference on Neural Information Processing Systems. Montreal, Canada, 2015: 2440−2448. (0) |
[11] | ZHANG Lei, WANG Shuai, LIU Bing. Deep learning for sentiment analysis: A survey[J]. Wiley interdisciplinary reviews: data mining and knowledge discovery, 2018, 8(4): e1253. (0) |
[12] | YOUNG T, HAZARIKA D, PORIA S, et al. Recent trends in deep learning based natural language processing[J]. IEEE computational intelligence magazine, 2018, 13(3): 55-75. DOI:10.1109/MCI.2018.2840738 (0) |
[13] | OH J, CHOCKALINGAM V, SINGH S, et al. Control of memory, active perception, and action in minecraft[C]//Proceedings of the 33nd International Conference on Machine Learning. New York, USA, 2016: 2790−2799. (0) |
[14] | BOTHE C, MAGG S, WEBER C, et al. Conversational analysis using utterance-level attention-based bidirectional recurrent neural networks[C]//Proceedings of the 19th Annual Conference of the International Speech Communication Association. Hyderabad, India, 2018. (0) |
[15] |
张新生, 高腾. 多头注意力记忆网络的对象级情感分类[J]. 模式识别与人工智能, 2019, 32(11): 997-1005. ZHANG Xinsheng, GAO Teng. Aspect level sentiment classification with multiple-head attention memory network[J]. Pattern recognition and artificial intelligence, 2019, 32(11): 997-1005. (0) |
[16] | BAHDANAU D, CHOROWSKI J, SERDYUK D, et al. End-to-end attention-based large vocabulary speech recognition[C]//Proceedings of 2016 IEEE International Conference on Acoustics, Speech and Signal Processing. Shanghai, China, 2016: 4945−4949. (0) |
[17] | JETLEY S, LORD N A, LEE N, et al. Learn to pay attention[C]//Proceedings of the 6th International Conference on Learning Representations. Vancouver, Canada, 2018. (0) |
[18] |
梁天新, 杨小平, 王良, 等. 记忆神经网络的研究与发展[J]. 软件学报, 2017, 28(11): 2905-2924. LIANG Tianxin, YANG Xiaoping, WANG Liang, et al. Review on research and development of memory neural networks[J]. Journal of software, 2017, 28(11): 2905-2924. (0) |
[19] | TANG Duyu, QIN Bing, LIU Ting. Aspect level sentiment classification with deep memory network[C]//Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing. Austin, USA, 2016. (0) |
[20] | GRAVES A, WAYNE G, REYNOLDS M, et al. Hybrid computing using a neural network with dynamic external memory[J]. Nature, 2016, 538(7626): 471-476. DOI:10.1038/nature20101 (0) |
[21] | YANG Feng, ZHANG Shiyue, ZHANG Andi, et al. Memory-augmented neural machine translation[C]//Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing. Copenhagen, Denmark, 2017. (0) |
[22] | CINGILLIOGLU N, RUSSO A. DeepLogic: towards end-to-end differentiable logical reasoning[C]//Proceedings of the AAAI 2019 Spring Symposium on Combining Machine Learning with Knowledge Engineering. Palo Alto, USA, 2019. (0) |
[23] |
廖祥文, 林威, 吴运兵, 等. 基于辅助记忆循环神经网络的视角级情感分析[J]. 模式识别与人工智能, 2019, 32(11): 987-996. LIAO Xiangwen, LIN Wei, WU Yunbing, et al. Aspect level sentiment analysis based on recurrent neural network with auxiliary memory[J]. Pattern recognition and artificial intelligence, 2019, 32(11): 987-996. (0) |
[24] | DAI Hanjun, KHALIL E B, ZHANG Yuyu, et al. Learning combinatorial optimization algorithms over graphs[C]//Proceedings of the 31st International Conference on Neural Information Processing Systems. Long Beach, USA, 2017: 6351−6361. (0) |
[25] | PARISI G I, KEMKER R, PART J L, et al. Continual lifelong learning with neural networks: a review[J]. Neural networks, 2019, 113: 54-71. DOI:10.1016/j.neunet.2019.01.012 (0) |
[26] | PARISOTTO E, SALAKHUTDINOV R. Neural map: Structured memory for deep reinforcement learning[C]//Proceedings of the 6th International Conference on Learning Representations. Vancouver, Canada, 2018. (0) |
[27] | PRITZEL A, URIA B, SRINIVASAN S, et al. Neural episodic control[C]//Proceedings of the 34th International Conference on Machine Learning. Sydney, Australia, 2017: 2827−2836. (0) |
[28] | BENTLEY J L. Multidimensional binary search trees used for associative searching[J]. Communications of the ACM, 1975, 18(9): 509-517. DOI:10.1145/361002.361007 (0) |
[29] | ZHANG Jingwei, TAI Lei, BOEDECKER J, et al. Neural SLAM: learning to explore with external memory[J]. arXiv:1706.09520v4, 2017. (0) |
[30] | CHAPLOT D S, PARISOTTO E, SALAKHUTDINOV R. Active neural localization[C]//Proceedings of the 6th International Conference on Learning Representations. Vancouver, Canada, 2018. (0) |
[31] | CHUNG J, GÜLCEHRE C, CHO K, et al. Empirical evaluation of gated recurrent neural networks on sequence modeling[J]. arXiv:1412.3555v1, 2014. (0) |
[32] | TAMAR A, WU Yi, THOMAS G, et al. Value iteration networks[C]//Proceedings of the 26th International Joint Conference on Artificial Intelligence. Melbourne, Australia, 2017: 4949−4953. (0) |
[33] | GUPTA S, DAVIDSON J, LEVINE S, et al. Cognitive mapping and planning for visual navigation[C]//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, USA, 2017: 7272−7281. (0) |
[34] | KHAN A, ZHANG C, ATANASOV N, et al. Memory augmented control networks[C]//Proceedings of the 6th International Conference on Learning Representations. Vancouver, Canada, 2018. (0) |
[35] | SUTTON R S, PRECUP D, SINGH S. Between MDPs and semi-MDPs: A framework for temporal abstraction in reinforcement learning[J]. Artificial intelligence, 1999, 112(1/2): 181-211. (0) |
[36] | RABINER L R. A tutorial on hidden markov models and selected applications in speech recognition[J]. Proceedings of the IEEE, 1989, 77(2): 257-286. DOI:10.1109/5.18626 (0) |
[37] | KALMAN R E. A new approach to linear filtering and prediction problems[J]. Journal of basic engineering, 1960, 82(1): 35-45. DOI:10.1115/1.3662552 (0) |
[38] | CHUNG J, KASTNER K, DINH L, et al. A recurrent latent variable model for sequential data[C]//Proceedings of the 28th International Conference on Neural Information Processing Systems. Montreal, Canada, 2015: 2962−2970. (0) |
[39] | KRISHNAN R G, SHALIT U, SONTAG D. Deep Kalman filters[J]. arXiv preprint arXiv:1511.05121v2, 2015. (0) |
[40] | GEMICI M, HUNG C C, SANTORO A, et al. Generative temporal models with memory[J]. arXiv preprint arXiv:1702.04649v2, 2017. (0) |
[41] | FRACCARO M, REZENDE D J, ZWOLS Y, et al. Generative temporal models with spatial memory for partially observed environments[C]//Proceedings of the 35th International Conference on Machine Learning. Stockholm, Sweden, 2018. (0) |
[42] | WAYNE G, HUNG C C, AMOS D, et al. Unsupervised predictive memory in a goal-directed agent[J]. arXiv preprint arXiv:1803.10760v1, 2018. (0) |
[43] | BEATTIE C, LEIBO J Z, TEPLYASHIN D, et al. Deepmind lab[J]. arXiv:1612.03801v2, 2016. (0) |
[44] | JOHNSON M, HOFMANN K, HUTTON T, et al. The Malmo platform for artificial intelligence experimentation[C]//Proceedings of the Twenty-Fifth International Joint Conference on Artificial Intelligence. New York, American, 2016. (0) |
[45] | KEMPKA M, WYDMUCH M, RUNC G, et al. Vizdoom: A doom-based AI research platform for visual reinforcement learning[C]//Proceedings of IEEE Conference on Computational Intelligence and Games. Santorini, Greece, 2016. (0) |
[46] | WU Yi, WU Yuxin, GKIOXARI G, et al. Building generalizable agents with a realistic and rich 3D environment[C]//Proceedings of the 6th International Conference on Learning Representations. Vancouver, Canada, 2018. (0) |
[47] | SONG Shuran, YU F, ZENG A, et al. Semantic scene completion from a single depth image[C]//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, USA, 2017: 190−198. (0) |
[48] | BRODEUR S, PEREZ E, ANAND A, et al. Home: a household multimodal environment[C]//Proceedings of the 6th International Conference on Learning Representations. Vancouver, Canada, 2018. (0) |
[49] | SAVVA M, CHANG A X, DOSOVITSKIY A, et al. MINOS: Multimodal indoor simulator for navigation in complex environments[J]. arXiv:1712.03931v1, 2017. (0) |
[50] | KOLVE E, MOTTAGHI R, HAN W, et al. AI2-thor: An interactive 3D environment for visual AI[J]. /arXiv:1712.05474v3, 2019. (0) |
[51] | YANG Wei, WANG Xiaolong, FARHADI A, et al. Visual semantic navigation using scene priors[C]//Proceedings of the 7th International Conference on Learning Representations. New Orleans, USA, 2019. (0) |
[52] | MIROWSKI P, GRIMES M K, MALINOWSKI M, et al. Learning to navigate in cities without a map[C]// Proceedings of the 32nd International Conference on Neural Information Processing Systems. Montreal, Canada, 2018: 2424−2435. (0) |