自动化学报  2018, Vol. 44 Issue (10): 1729-1746   PDF    
单目视觉伺服研究综述
徐德1,2     
1. 中国科学院自动化研究所精密感知与控制研究中心 北京 100190;
2. 中国科学院大学人工智能学院 北京 101408
摘要: 视觉伺服是机器人视觉领域的研究热点之一,具有十分广泛的应用前景.本文针对单目视觉系统,从视觉伺服的运动映射关系、误差表征、控制律设计、关键影响因素等多个层面,对视觉伺服的研究现状进行了论述,并分析了不同视觉伺服方法的特点,给出了视觉伺服在不同领域的典型应用.最后,指出了视觉伺服未来的主要发展方向.
关键词: 交互矩阵     单应性矩阵     极线几何     特征选择     控制律设计     单目视觉     视觉伺服    
A Tutorial for Monocular Visual Servoing
XU De1,2     
1. Research Center of Precision Sensing and Control, Institute of Automation, Chinese Academy of Sciences, Beijing 100190;
2. School of Artificial Intelligence, University of Chinese Academy of Sciences, Beijing 101408
Manuscript received : December 21, 2017, accepted: April 4, 2018.
Foundation Item: Supported by Science Challenge Project (TZ2018006-0204-02), National Natural Science Foundation of China (61733004)
Author brief: XU De  Professor at the Institute of Automation, Chinese Academy of Sciences. He received his bachelor degree and master degree from Shandong University of Technology in 1985 and 1990, respectively, and received his Ph. D. degree from Zhejiang University in 2001. His research interest covers robotics and automation such as visual measurement, visual control, intelligent control, visual positioning, microscopic vision, and microassembly.
Recommended by Associate Editor DONG Feng
Abstract: Visual servoing is an important focus in the field of robot vision, which has a wide application area. This paper mainly discusses monocular visual servoing methods. It introduces different visual servoing methods and analyzes their characteristics from aspects such as motion mapping from features, errors representation, control law design, and key influence factors. Typical applications in different fields are given. Finally, the development tendency in future is predicted as well.
Key words: Interaction matrix     homography matrix     epipolar geometry     feature selection     control law design     monocular vision     visual servoing    

视觉可以为机器人提供外部信息, 是机器人的重要信息源, 是机器人实现自动作业以及自主作业的重要保障.因此, 视觉在机器人领域具有重要的地位和作用.视觉伺服是利用视觉信息对机器人或者相机位姿进行的伺服控制, 其目标是控制机器人或者相机快速到达期望的位姿.

视觉伺服涉及视觉信息与运动的映射、特征选择、控制律设计、视觉系统标定等问题.早在1996年, Hutchinson等[1]撰写了视觉伺服的教程, 将视觉伺服按照控制系统的构成方式分为基于位置的视觉伺服(Position-based visual servo)、基于图像的视觉伺服(Image-based visual servo).其中, 基于位置的视觉伺服在3D笛卡尔空间构成闭环控制系统, 利用视觉信息获得被观测对象在笛卡尔空间的位置和姿态, 与期望的位置和姿态相比较形成误差, 根据该误差设计控制律, 控制机器人或者相机运动; 基于图像的视觉伺服在2D图像空间构成闭环控制系统, 利用视觉信息获得被观测对象在图像空间的特征, 与期望的图像特征相比较形成误差, 根据该误差设计控制律, 控制机器人或者相机运动. 1999年, Malis等[2]提出了混合视觉伺服方法.混合视觉伺服包含了在3D笛卡尔空间构成的闭环控制系统和2D图像空间构成的闭环控制系统, 一部分自由度采用基于位置的视觉伺服, 另一部分自由度采用基于图像的视觉伺服.混合视觉伺服结合了基于位置和基于图像的视觉伺服, 既含有3D空间又含有2D空间的伺服控制, 所以又称为2.5D视觉伺服[3]. 2003年, Hashimoto[4]对工业机器人基于视觉的控制方法进行了综述, Kragic等[5]对基于位置、基于图像的视觉伺服方法进行了工业机器人的抓取实验, Gans等[6]对不同的视觉伺服系统的性能进行了测试.基于位置的视觉伺服在3D笛卡尔空间设计控制律, 能够保证系统的全局渐近稳定, 但相机标定误差和机器人的模型误差对控制精度具有明显影响.基于图像的视觉伺服在2D图像空间构成闭环, 对相机标定误差和机器人的模型误差不敏感, 具有很高的稳态控制精度, 但控制系统只是局部稳定, 对于大幅度旋转的伺服控制效果较差[6], 而且图像雅可比矩阵的奇异性也会导致伺服控制失败.混合视觉伺服结合了基于位置和基于图像的视觉伺服的优点, 利用基于位置的视觉伺服对姿态进行控制, 可防止姿态变化过大导致的伺服失败; 利用基于图像的视觉伺服对位置进行控制, 可提高位置控制精度; 但单应性矩阵(Homography matrix)的估计对图像噪声敏感, 且需要对单应性矩阵进行分解. 2005年, Marchand等[7]设计了视觉伺服平台的Matlab工具箱, Mariottini等[8]设计了基于极线几何视觉伺服的Matlab工具箱, 为视觉伺服系统的设计和仿真提供了便利. 2006年, Chaumette和Hutchinson[9-10]再度撰写了视觉伺服的教程, 分别介绍了视觉伺服的基本方法和先进方法, 基本方法包括基于位置的视觉伺服、基于图像的视觉伺服, 先进方法包括2.5D混合视觉伺服、全分离式视觉伺服(Partitioned visual servo)、开关式视觉伺服(Switching visual servo)等.其中, 全分离式视觉伺服选择6个特征, 对线速度和角速度的6个自由度分别进行控制.开关式视觉伺服采用开关控制器选择当前的有效控制器[11-12], 在误差较大时选用基于位置的视觉伺服, 在误差较小时采用基于图像的视觉伺服. 2010年, Staniak等[13]以工业机器人趋近与抓取静态对象的任务为背景, 分别针对Eye-in-hand和Eye-to-hand视觉系统, 对基于位置、基于图像、开关式视觉伺服进行了分析和实验, 对影响稳态误差的因素进行了分析和验证. 2011年Janabi-Sharifi等[14]对基于位置和基于图像的视觉伺服方法进行了对比, 包括系统稳定性、鲁棒性、灵敏性和在笛卡尔空间与图像空间的动态性能.两者均能够局部渐近稳定, 而且对建模误差局部鲁棒, 但笛卡尔空间与图像空间的轨迹以及时间收敛性受到相机、对象和机器人建模误差的影响. 2015年, 贾丙西等[15]对机器人视觉伺服进行了综述, 重点介绍了视觉系统中改善动态性能和处理噪声的方法.

视觉系统常用的构成方式包括单目视觉和双目立体视觉.虽然双目立体视觉能够测量特征点的三维坐标, 便于构成基于位置的视觉伺服控制系统, 但是其内外参数标定比较繁杂, 与单目视觉相比成本较高, 使用与维护的方便性较差.单目视觉具有成本较低、使用与维护较方便等特点, 受到机器人视觉领域研究人员的普遍重视, 近年来针对视觉伺服的研究主要面向单目视觉系统.因此, 本文针对单目视觉系统讨论视觉伺服.此外, 现有的关于机器人视觉伺服的综述或者教程, 如Hutchinson等的视觉伺服教程[1, 9-10], 主要从视觉信息与运动映射和控制律设计的角度讨论视觉伺服, 较少涉及特征选择、视觉系统标定等问题.为了更好地体现不同的视觉伺服方法的特点, 本文从视觉信息与运动映射、控制律设计、特征选择、视觉系统标定等角度介绍视觉伺服近年来的研究进展.

本文内容安排如下:第1节介绍了视觉信息与运动映射关系, 包括交互矩阵、单应性矩阵、基本矩阵.交互矩阵描述相机运动与特征变化之间的关系, 单应性矩阵描述两视点之间的位姿关系, 基本矩阵描述两视点之间的极线约束.第2节分别针对不同的误差表征方式, 讨论了不同视觉伺服方法的控制律设计.第3节对视觉伺服的关键问题进行了讨论, 包括相机选择、特征选择、误差表征、深度估计、位姿解耦、系统稳定性、系统标定等.第4节简要介绍了视觉伺服的部分典型应用, 给出了未来发展的几个方向.最后, 对全文进行了总结.

1 视觉信息与运动映射关系

视觉信息与运动映射关系的获取, 主要包括交互矩阵、单应性矩阵、基本矩阵等方式.

1.1 交互矩阵

交互矩阵(Interaction matrix)描述相机运动与图像特征变化之间的关系, 又称为图像雅可比矩阵(Image Jacobian matrix).早在1992年, Chaumette等[16]推导了点、线和圆特征的交互矩阵.空间圆的交互矩阵较复杂, 此处从略.

对于笛卡尔空间的特征点, 其3D空间位置在摄像机坐标系中表示为($X$, $Y$, $Z$), 其在相机焦距归一化成像平面上的成像点在摄像机坐标系中表示为($x$, $y$, 1), 则点特征的交互矩阵为[16]:

$ \begin{equation} L_{p}= \begin{bmatrix} -\dfrac{1}{Z}&0&\dfrac{x}{Z}&xy&-1-x^2&y\\ 0&-\dfrac{1}{Z}&\dfrac{y}{Z}&1+y^2&-xy&-x \end{bmatrix} \end{equation} $ (1)

其中, $L_p$是点特征的交互矩阵.

将直线表示为两个空间平面的交线:

$ \begin{equation} \begin{cases} a_1X+b_1Y+c_1Z+d_1=0\\ a_2X+b_2Y+c_2Z+d_2=0 \end{cases} \end{equation} $ (2)

其中, $a_1$$b_1$$c_1$$d_1$$a_2$$b_2$$c_2$$d_2$为两个平面的平面方程参数. $d_1$$d_2$不同时为零.

直线特征的交互矩阵见式(3).其中, ${\rho}$${\theta}$为3D空间直线在相机焦距归一化成像平面上的成像直线的极坐标方程参数. ${\lambda}_{\theta}=(a_i\sin{\theta}-b_i\cos{\theta})/d_i$, ${\lambda}_{\rho}=(a_i{\rho}\cos{\theta}+b_i{\rho}\sin{\theta}+c_i)/d_i$, $d_1\, {\neq}\, 0$$i=1$, $d_1=0$$i=2$. $L_{\theta}$$L_{\rho}$分别是${\theta}$${\rho}$的交互矩阵.

由式(1)和式(3)可知, 点、直线特征的交互矩阵是分别基于在相机焦距归一化成像平面上的成像点坐标和直线参数的.因此, 需要对相机进行标定, 获得相机的内参数.然后, 根据图像坐标和相机内参数, 计算出在相机焦距归一化成像平面上的成像点坐标.从式(1)可以发现, 点特征交互矩阵$L_p$与深度$Z$相关.在相机内参数已知的情况下, $x$$y$可以由图像坐标和相机内参数计算获得.如果点在相机坐标系中的深度$Z$已知, 那么$L_p$就可以确定.因此, 如何估计深度$Z$成为获取点特征的交互矩阵的关键.从式(3)可以发现, 求取直线特征的交互矩阵时, 需要已知含有该直线的平面在相机坐标系中的平面方程.由于含有直线的平面在相机坐标系中的平面方程难以获得, 制约了直线特征的交互矩阵在机器人视觉伺服中的应用.

$ \begin{equation} %\begin{cases} \begin{bmatrix} L_{\rho} \\ L_{\theta} \end{bmatrix} = \begin{bmatrix} {\lambda_\rho}\cos{\theta}&{\lambda_\rho} \sin{\theta} & -{\lambda_\rho}\rho&(1+\rho^2) \sin{\theta} & -(1+\rho^2)\cos{\theta}&0\\[1mm] {\lambda}_{\theta}\cos{\theta} & {\lambda}_{\theta} \sin{\theta}&-{\lambda_\theta}\rho & -{\rho}\cos{\theta}&-{\rho}\sin{\theta}&-1 \end{bmatrix} %\end{cases} \end{equation} $ (3)
$ \begin{equation} \begin{bmatrix} L_{\rho}\\ L_{\theta} \end{bmatrix} = \begin{bmatrix} -\dfrac{{\text {cos}}{\theta}}{Z_0}&-\dfrac{{\text {sin}} {\theta}}{Z_0}&\dfrac{\rho}{Z_0}&(1+\rho^2)\sin{\theta} & -(1+\rho^2)\cos{\theta}&0\\[4mm] L_{{\theta}vx}&L_{{\theta}vy} & \dfrac{1}{2{Z_2}}-\dfrac{1}{2{Z_1}}&-{\rho_1}\cos{\theta} & -{\rho_1}\sin{\theta}&-1 \end{bmatrix} \end{equation} $ (4)

对于虚拟现实而言, 可以在相机坐标系中预先设定一个含有直线的平面, 即含有直线的平面在相机坐标系中的平面方程是已知的.因此, 直线特征的交互矩阵能够在虚拟现实中得到较好的应用.例如, 2006年Comport等[17]以当前图像特征作为期望值, 以当前相机位姿下场景投影到图像的特征作为当前值, 通过视觉伺服控制摄像机的运动, 使得图像特征的偏差最小化, 从而实现虚拟现实中相机的位姿估计. Comport等采用了点到直线的距离作为特征, 其中的点是在图像上的给定点, 其图像坐标保持不变.

为了克服含有直线的平面在相机坐标系中的平面方程的制约, 文献[18]利用直线上相邻点的极坐标推导了直线特征的交互矩阵.从成像平面坐标系原点到直线作垂线, 得到垂线与直线的交点即垂点.利用直线上垂点及其两侧小邻域内对称的两点, 推导出了直线特征的交互矩阵, 见式(4).其中, $Z_0$是垂足在相机坐标系中的深度, $Z_1$$Z_2$是垂足的两个邻点在相机坐标系中的深度, $\rho$$\theta$是直线在相机焦距归一化成像平面上的成像直线的极坐标方程参数, $\rho_1$是成像平面坐标系原点到垂足的一个邻点的距离, ${L_{{\theta}vx}}$${L_{{\theta}vy}}$$Z_1$$Z_2$$\rho$$\theta$的函数, $L_\rho$$L_\theta$分别是$\rho$$\theta$的交互矩阵.

对于垂直于摄像机光轴的直线, $Z_1=Z_2$, 得到${L_{{\theta}vx}}=0$, ${L_{{\theta}vy}}=0$.此时, 式(4)的$L_\theta$改写为:

$ \begin{equation} L_{\theta}= \begin{bmatrix} 0&0 &0&-{\rho}\cos{\theta}&-{\rho}\sin{\theta}&-1 \end{bmatrix} \end{equation} $ (5)

式(5)交互矩阵与深度无关, 而且与平移无关.由式(3)、式(4)和式(5)可以发现, 相机的旋转运动与$\theta$变化之间的关系与深度无关, 即旋转运动与$\theta$的交互矩阵${L_{{\theta}w}}$与深度无关, 见式(6).因此, 利用相机焦距归一化成像平面上直线参数$\rho$$\theta$计算出式(6)的旋转交互矩阵${L_{{\theta}w}}$, 可以用于姿态控制.

$ \begin{equation} L_{{\theta}w}= \begin{bmatrix} -{\rho}\cos{\theta}&-{\rho}\sin{\theta}&-1 \end{bmatrix} \end{equation} $ (6)

此外, Chaumette等[19-20]假设特征点均处于同一个平面内, 基于点特征的交互矩阵以及平面方程, 对各阶矩的交互矩阵进行了推导, 并推导出了椭圆、直线的矩的交互矩阵. Chaumette等采用基于二阶矩的方向和两个不变量矩, 实现了对姿态的视觉伺服控制[19]. 2012年Lin等[21]定义了4个最低矩不变量, 实现了基于模型的图像跟踪.基于矩的交互矩阵的视觉伺服, 不需要特征提取与匹配, 鲁棒性强[22].

1.2 单应性矩阵

单应性矩阵描述了两个视点之间的几何关系, 也是摄像机坐标系中在焦距归一化成像平面上特征点的位置矢量之间的关系.在相机坐标系中, 两个视点下的特征点在焦距归一化成像平面上的坐标之间存在如下关系[3, 23]:

$ \begin{equation} \frac{Z}{Z^*}\mathit{\boldsymbol{m}}=H{\mathit{\boldsymbol{m}}^*} \end{equation} $ (7)

其中, $\mathit{\boldsymbol{m}}$=[$x$ $y$ 1]$^{\text T}$是特征点在当前视点下在焦距归一化成像平面上的位置矢量, $\mathit{\boldsymbol{m}}^*$=[$x^*$ $y^*$ 1]$^{\text T}$是特征点在期望视点下在焦距归一化成像平面上的位置矢量, $Z$是特征点在当前视点下的深度, $Z^*$是特征点在期望视点下的深度, $H$$3{\times}3$的单应性矩阵.

利用两个视点下所采集的图像中的4组及以上匹配特征点, 可以构成一系列式(7)所示的方程, 利用最小二乘法求解获得单应性矩阵.单应性矩阵中只含外参数, 可以表示为:

$ \begin{equation} H= R + \frac{\mathit{\boldsymbol{t}}}{\textit d^*}{{\mathit{\boldsymbol{n}}}^{* \text T}} \end{equation} $ (8)

其中, ${\mathit{\boldsymbol{n}}}^*$是期望视点的相机坐标系原点到平面$\Pi$的单位法向量, $d^*$是期望视点的相机坐标系原点到平面$\Pi$的距离. $R$是当前视点到期望视点的相机坐标系之间的旋转矩阵, ${\mathit{\boldsymbol{t}}}$是当前视点到期望视点的相机坐标系之间的平移向量. $\Pi$是含有特征点的平面.

$H$除以第3行第3列的元素, 得到$H_e$.对$H_e$进行奇异值分解, 求解出$R$${\mathit{\boldsymbol{t}}}_e$. ${\mathit{\boldsymbol{t}}}_e$${\mathit{\boldsymbol{t}}}$相差一个比例因子. $R$用于姿态控制, ${\mathit{\boldsymbol{t}}}_e$用于位置控制, 构成基于位置的视觉伺服控制系统.

1.3 基本矩阵

由两个视点之间的极线几何约束, 得到特征点图像坐标的关系[23]:

$ \begin{equation} {\mathit{\boldsymbol{p}}}^{\text T} F {\mathit{\boldsymbol{p}}}^*= \text 0 \end{equation} $ (9)

其中, ${\mathit{\boldsymbol{p}}}=[u~~v~~1]^{\rm T}$为特征点在当前视点下的图像齐次坐标, ${\mathit{\boldsymbol{p}}}^*=[u^*~~v^*~~ 1]^{\rm T}$为特征点在期望视点下的图像齐次坐标, $F$为基本矩阵.

基本矩阵$F$$3\, {\times}\, 3$矩阵, 包含了内外参数, 形成两幅图像之间的极线几何约束.利用8组及以上的匹配特征点得到的式(9)所示方程, 采用最小二乘法估计出基本矩阵$F$.得到基本矩阵后, 结合内参数矩阵, 计算出本质矩阵$E$.

$ \begin{equation} E=A^{\text T} F A \end{equation} $ (10)

其中, $A$是相机的内参数矩阵.

本质矩阵只含外参数, 是在焦距归一化成像平面上的几何约束.由本质矩阵$E$, 计算出$R$${\mathit{\boldsymbol{t}}}_e$, 分别用于姿态控制和位置控制, 构成基于位置的视觉伺服控制系统.

2 误差表征与控制律设计

本节按照视觉信息与运动映射关系的获取方式, 对视觉伺服控制律的设计进行介绍.

2.1 基于交互矩阵的视觉伺服 2.1.1 基于点交互矩阵的传统方法

传统的基于点交互矩阵的视觉伺服, 选择$n$个特征点在相机的焦距归一化成像平面上的坐标作为图像特征, 利用图像特征偏差和交互矩阵控制相机的运动.当特征点数量$n \geq 4$时, 其控制律见式(11), 可使偏差按照指数规律下降[9, 24].

$ \begin{equation} \begin{bmatrix} {\mathit{\boldsymbol{v}}}\\ {\mathit{\boldsymbol {\omega}}}\\ \end{bmatrix} =-{\lambda} L_{pn}^{+} {\pmb e} \end{equation} $ (11)

其中, ${\mathit{\boldsymbol{v}}}$是相机的线速度, ${\mathit{\boldsymbol {\omega}}}$是相机的角速度, ${\lambda}>0$是系数, $\pmb e$是特征点的图像坐标偏差, $L_{pn}^{+}$$n$个特征点交互矩阵$L_{pn}$的伪逆矩阵.

传统的基于点交互矩阵的视觉伺服, 属于基于图像的视觉伺服.计算交互矩阵$L_{pn}$时, 需要用到特征点在相机坐标系的深度, 涉及到特征点的深度获取.该深度信息可以根据相机的运动进行在线估计, 但难以获得准确值.计算$L_{pn}$时, 可以采用在线估计的深度, 也可以采用期望视点下的深度.文献[9]分别采用在线估计深度计算的$L_{pn}$、期望视点下的深度计算的$L_{pn}^*$、以及二者的均值$(L_{pn}+L_{pn}^*)/2$, 进行了视觉伺服实验, 三种情况下控制系统均收敛.其中, 采用$L_{pn}$的视觉伺服收敛较快.

传统的基于点交互矩阵的视觉伺服, 在旋转量较大时存在相机后退问题(Camera retreat), 即相机沿法线方向离开目标然后返回, 属于无效运动[25].针对相机后退问题, Iwatsuki等[26]推导了柱面坐标系下的点交互矩阵, 基于柱面坐标的视觉伺服可消除纯旋转时的相机后退现象.此外, 在rank$(L_{pn})<6$时, 式(11)控制律会造成相机速度过大, 从而导致目标丢失.

2000年, Kelly等[27]将点特征的交互矩阵与机械臂的雅可比矩阵相结合, 构成机器人的图像雅可比矩阵.利用图像雅可比矩阵的转置, 将图像空间的特征偏差转换为关节空间的力矩.在两连杆机器人上进行了控制实验, 取得了较好的效果.

2.1.2 基于点交互矩阵的分离式视觉伺服

2001年, Corke和Hutchinson[25]提出了一种分离式视觉伺服方法.将与$Z$方向相关的2个自由度的控制分离出来, 其他的4个自由度利用基于交互矩阵的方法进行控制.由式(1), 得:

$ \begin{align} &\dot{{\mathit{\boldsymbol {f}}}}=L_p \begin{bmatrix} v_x&v_y&v_z&\omega_x&\omega_y&\omega_z \end{bmatrix} ^\text T= \nonumber\\ &\quad L_{pxy} \begin{bmatrix} v_x&v_y&\omega_x&\omega_y \end{bmatrix} ^\text T +L_{pz} \begin{bmatrix} v_z&\omega_z \end{bmatrix} ^\text T \end{align} $ (12)

其中, $\dot{{\mathit{\boldsymbol {f}}}}$是图像特征的变化率, $L_{pxy}$是与$X$$Y$方向运动相关的交互矩阵, $L_{pz}$是与$Z$方向运动相关的交互矩阵. ($v_x$, $v_y$, $v_z$)和($\omega_x$, $\omega_y$, $\omega_z$)分别为相机的线速度和角速度.一个点的交互矩阵$L_{pxy}$$L_{pz}$见式(13).

$ \begin{equation} \begin{cases} L_{pxy}= \begin{bmatrix} -\frac{1}{Z}&0&xy&-1-x^2\\ 0&-\frac{1}{Z}&1+y^2&-xy \end{bmatrix} \\ L_{pz}= \begin{bmatrix} \frac{x}{Z}&y\\ \frac{y}{Z}&-x \end{bmatrix} \end{cases} \end{equation} $ (13)

由式(12), 得:

$ \begin{equation} \begin{bmatrix} v_x & v_y & \omega_x & \omega_y \end{bmatrix} ^\text T = L_{pxy}^{+}\dot{{\mathit{\boldsymbol {f}}}}-L_{pxy}^{+}L_{pz} \begin{bmatrix} v_z & \omega_z \end{bmatrix} ^\text T \end{equation} $ (14)

其中, $L_{pxy}^{+}$$L_{pxy}$的伪逆矩阵.

利用图像空间特征点连线与水平方向的夹角作为绕$Z$轴旋转的特征, 用于确定$\omega_z$.利用特征点构成的多边形面积作为沿$Z$轴平移的特征, 用于确定$v_z$.获得$v_z$$\omega_z$后, 根据式(14)确定$X$$Y$方向的运动线速度和角速度.该方法可以消除传统方法的相机后退问题[25].

2016年, Xu等[28]将旋转和平移控制律分开设计.利用式(11)计算出相机的角速度$\pmb \omega$, 然后利用式(15)计算线速度${\mathit{\boldsymbol{v}}}$.

$ \begin{equation} {\mathit{\boldsymbol{v}}}=L_{vn}^{+} \begin{bmatrix} \dot{x_1}&\dot{y_1}&\cdots&\dot{x_n}&\dot{y_n} \end{bmatrix} ^\text T -L_{vn}^{+}L_{wn} {\pmb \omega} \end{equation} $ (15)

其中, $(\dot{x_i}$, $\dot{y_i})$是第$i$个特征点在焦距归一化成像平面上的速度, $L_{vn}^{+}$$n$点的平移交互矩阵$L_{vn}$的伪逆矩阵, $L_{wn}$$n$点的旋转交互矩阵.一个点的交互矩阵$L_v$$L_w$见式(16).

$ \begin{equation} \begin{cases} L_v= \begin{bmatrix} -\frac{1}{Z}&0&\frac{x}{Z}\\ 0&-\frac{1}{Z}&\frac{y}{Z} \end{bmatrix} \\ L_w= \begin{bmatrix} xy&-1-x^2&y\\ 1+y^2&-xy&-x \end{bmatrix} \end{cases} \end{equation} $ (16)
2.1.3 基于多种特征交互矩阵的分离式视觉伺服

Tahri等[19]和Chaumette[20]选择6个组合矩特征分别控制相机的6个自由度, 实现了解耦的视觉伺服.以对象的重心表征沿$X$$Y$轴平移, 以对象的图像面积作为表征深度$Z$的特征, 采用椭圆长轴方向表征绕$Z$轴的旋转, 以基于二阶矩的两个不变量矩的组合分别控制绕$X$$Y$轴的旋转.该方法的优点是针对对象的图像计算矩, 不需要点匹配, 鲁棒性较强.缺点是旋转控制并不能完全解耦.在对象表面平行于成像平面时, 绕$X$$Y$轴的旋转是解耦的, 但对象表面不平行于成像平面时, 旋转控制仍然存在耦合问题.

2008年, 徐德等[29]针对矩形对象, 选择其图像重心表征沿$X$$Y$轴平移, 以对象的图像面积作为表征深度$Z$的特征, 以矩形两长边中心线的方向角表征绕$Z$轴的旋转, 分别以长边和短边的变化表征绕$X$$Y$轴的旋转.利用上述6个特征分别控制相机的6个自由度, 能够实现解耦的视觉伺服. 2012年, Anh等[30]采用SURF特征搜索并分割对象, 将对象的区域标注为四边形ROI (Region of interest), 采用上述6个特征分别控制机械臂末端相机的6个自由度, 实现了解耦的视觉伺服, 能够控制机械臂快速对对象进行趋近和对准.这种方法的优点是特征与运动之间的关系比较简单、直观, 缺点是限制条件比较苛刻, 对象在期望位姿下的成像必需为矩形且矩形的边需要平行于成像平面的$x$$y$轴, 应用受到极大的制约.此外, 这种方法的解耦并不完善, 导致运动过程中存在较大的波动.

2017年, Xu等[31]提出了一种采用多种特征的分离式视觉伺服方法.对点、线、面特征的灵敏性进行了分析, 点特征对沿相机坐标系$X$$Y$轴的平移灵敏性高, 面特征对沿相机坐标系$Z$轴的运动非常灵敏, 直线特征对旋转非常灵敏.因此, 采用式(6)所示的直线交互矩阵控制旋转运动, 设计了旋转运动控制律.采用点特征和面特征的交互矩阵控制平移运动, 并对旋转运动导致的平移在平移控制律中进行了补偿.旋转和平移控制律分开设计, 选择的灵敏特征有利于保证交互矩阵的秩为3, 消除了交互矩阵的奇异问题.此外, 旋转运动对平移运动的补偿, 有利于将对象保持在相机的视野中, 避免视觉伺服失败问题.

2.2 基于单应性矩阵的视觉伺服 2.2.1 基于单应性矩阵的传统方法

利用单应性矩阵分解获得姿态矩阵$R$和带比例因子的平移矢量${\mathit{\boldsymbol{t}}}_e$后, 将$R$转换为转轴${\mathit{\boldsymbol {r}}}_a$和转角$\theta$表示的姿态$\theta {\mathit{\boldsymbol {r}}}_a$.基于单应性矩阵的传统方法为基于位置的视觉伺服[9], 视觉伺服的目标是使得相机从当前视点运动到期望视点.选择两个视点之间的位移矢量${\mathit{\boldsymbol{t}}}_e$和轴角$\theta {\mathit{\boldsymbol {r}}}_a$作为特征.在当前相机坐标系下, 位置误差为${\mathit{\boldsymbol{t}}}_e$, 姿态误差为$\theta {\mathit{\boldsymbol {r}}}_a$.相机运动与特征之间的交互矩阵为:

$ \begin{equation} L_e=- \begin{bmatrix} I_{\text 3}& 0\\ 0& {L_{\theta r}} \end{bmatrix} \end{equation} $ (17)

其中,

$ \begin{equation} L_{\theta r}=I_{\text 3}-\frac{\theta}{\text 2}[\mathit{\boldsymbol { r_a}}]_\times+\left(\text 1-\frac{\text {sinc}\theta}{\text {sinc}^{\text 2}\frac{\theta}{2}}\right)[{\mathit{\boldsymbol {r}}}_a]_\times^{\text 2} \end{equation} $ (18)

其中, $I_{\text 3}$$3\times3$的单位阵, $[{\mathit{\boldsymbol {r}}}_a]_\times$${\mathit{\boldsymbol {r}}}_a$的反斜对称矩阵.

$L_{\theta r}^{-1}\theta \mathit{\boldsymbol {r_a}} =\theta {\mathit{\boldsymbol {r}}}_a$, 故控制律为:

$ \begin{equation} \begin{cases} {\mathit{\boldsymbol{v}}}=\lambda {\mathit{\boldsymbol{t}}}_e\\ {\mathit{\boldsymbol {\omega}}}=\lambda \theta {\mathit{\boldsymbol {r}}}_a \end{cases} \end{equation} $ (19)

可见, 在相机坐标系下, 基于单应性矩阵的传统视觉伺服方法为解耦控制.相机在笛卡尔空间的运动轨迹为直线.但随着相机姿态的变化, 对象上的有些特征点可能出视野, 会导致视觉伺服失败.此外, 单应性矩阵的误差以及分解为$R$${\mathit{\boldsymbol{t}}}_e$时产生的误差, 会导致系统存在稳态误差.

2.2.2 基于单应性矩阵的解耦控制

2007年Benhimane等[32]提出了一种直接利用单应性矩阵的解耦视觉伺服方法.该方法不需要对单应性矩阵进行分解, 在图像空间实现视觉伺服.利用单应性矩阵构造了分别描述位移和姿态误差的特征, 见式(20).基于这些特征设计的控制律见式(21), 可实现控制系统的局部稳定. 2014年Plinval等[33]利用上述方法, 实现了无人直升机对地面目标的视觉跟踪. 2015年Jia等[34]利用上述方法, 结合迭代学习控制实现了工业机器人轨迹跟踪.

$ \begin{equation} \begin{cases} \pmb e_v=(H-I_{\text 3})\mathit{\boldsymbol{m}}^*\\ [\pmb e_w]_\times=H-H^{\text T} \end{cases} \end{equation} $ (20)
$ \begin{equation} \begin{bmatrix} {\mathit{\boldsymbol{v}}}\\ {\mathit{\boldsymbol {\omega}}} \end{bmatrix} =- \begin{bmatrix} \lambda_v I_3& 0\\ 0&\lambda_w I_3 \end{bmatrix} \begin{bmatrix} \pmb e_v\\ \pmb e_w \end{bmatrix} \end{equation} $ (21)

当相机到达期望视点的位姿时, $R=I_{\text 3}$, ${\mathit{\boldsymbol{t}}}_e$=0, 此时$H=I_3$.由式(20)可知, 此时位移误差$\pmb e_v$=0, 姿态误差$\pmb e_w$=0.这说明在稳态时, 采用式(20)描述的误差与实际相符.

考虑如下情况, $R=I_3$, ${\mathit{\boldsymbol{t}}}_e\neq 0$.假设${\mathit{\boldsymbol{n}}}^*=[0~~0~~ 1]^{\rm T}$, 根据式(8)得到:

$ \begin{equation} H= \begin{bmatrix} 1&0&\dfrac{t_x}{d^*}\\[2mm] 0&1&\dfrac{t_y}{d^*}\\[2mm] 0&0&1+\dfrac{t_z}{d^*} \end{bmatrix} \end{equation} $ (22)

将式(22)中的$H$代入式(20), 得到:

$ \begin{equation} \begin{cases} \pmb e_v= \begin{bmatrix} \dfrac{t_x}{d^*}&\dfrac{t_y}{d^*}&\dfrac{t_z}{d^*} \end{bmatrix} ^{\text T}\\[2mm] \pmb e_w= \begin{bmatrix} 0&0&\dfrac{t_x}{d^*}\\[2mm] 0&0&\dfrac{t_y}{d^*}\\[2mm] -\dfrac{t_x}{d^*}&-\dfrac{t_y}{d^*}&0 \end{bmatrix} \end{cases} \end{equation} $ (23)

$R=I_3$, ${\mathit{\boldsymbol{t}}}_e \neq 0$时, 解耦后应该没有旋转.但式(23)表明, 利用$H-H^{\text T}$表征姿态误差时, 会导致相机绕$X$$Y$轴的旋转.因此, 该方法实际上并没有实现位置与姿态的真正解耦, 在视觉伺服过程中存在姿态与位置的耦合问题, 会导致姿态控制上有超调.

为解决上述问题, 2012年Silveira等[35]$H$进行了重新定义, 令${H=A}^{-1}GA $, $G=ARA^{-1}$.于是, $H$$R$等价.将式(20)的第1式位置误差修改为$\pmb e_v=(H-I_{3}) {\mathit{\boldsymbol{m}}^*}+\rho^*A^{-1}{{\mathit{\boldsymbol{p}}}_e}$, 此处的${\mathit{\boldsymbol{p}}}_e$是极点的图像坐标.

2.2.3 2.5D视觉伺服

1999年Malis等[2]提出了一种基于单应性矩阵的混合视觉伺服方法, 在3D笛卡尔空间进行姿态控制, 在2D图像空间进行位置控制.定义了特征点在焦距归一化成像平面上的扩展坐标, 在当前视点下的扩展坐标为$\mathit{\boldsymbol{m}}_e = [x$ $y$ lg$(Z)]^{\rm T}$, 在期望视点下的扩展坐标为$\mathit{\boldsymbol{m}}_e^*=[x^*$ $y^*$ lg$(Z^*)]^{\rm T}$.扩展坐标用于在图像空间的位置控制.由单应性矩阵$H$分解出姿态矩阵$R$, 转换为$\theta {\mathit{\boldsymbol {r}}}_a$用于姿态控制[36].系统的误差定义为$[(\mathit{\boldsymbol{m}}_e-\mathit{\boldsymbol{m}}_e^*)^{\rm T}$ $\theta {\mathit{\boldsymbol {r}}}_a^{\rm T}]^{\rm T}$.相机运动速度与误差之间的交互矩阵为

$ \begin{equation} L_h= \begin{bmatrix} \frac{1}{d^*} L_{ev}&L_{ew}\\ 0& L_{\theta r} \end{bmatrix} \end{equation} $ (24)

其中, $L_{ev}$是相机线速度与扩展坐标之间的交互矩阵, $L_{ew}$是相机角速度与扩展坐标之间的交互矩阵.

$ \begin{equation} L_{ev}=\frac{d^*}{Z} \begin{bmatrix} -1&0&x\\ 0&-1&y\\ 0&0&-1 \end{bmatrix} \end{equation} $ (25)
$ \begin{equation} L_{ew}= \begin{bmatrix} xy&-(1+x^2)&y\\ 1+y^2&-xy&-x\\ -y&x&0 \end{bmatrix} \end{equation} $ (26)

设计的控制律为:

$ \begin{equation} \begin{bmatrix} {\mathit{\boldsymbol{v}}}\\ {\mathit{\boldsymbol {\omega}}} \end{bmatrix} =-\lambda \begin{bmatrix} \hat{d^*} L_{ev}^{-1}&- \hat{d^*} L_{ev}^{-1} L_{ew}\\ 0&I_3 \end{bmatrix} \begin{bmatrix} \mathit{\boldsymbol{m}}_e- \mathit{\boldsymbol{m}}_e^*\\ \theta {\mathit{\boldsymbol {r}}}_a \end{bmatrix} \end{equation} $ (27)

其中, $\hat{d^*}$$d^*$的估计值.

$\rho_1=Z/d^*$, $\rho_2=Z/Z^*$, 则$\rho_2=\rho_1 {\mathit{\boldsymbol{n}}}^{*\text T}\mathit{\boldsymbol{m}}^*$.在获得单应性矩阵$H$后, $\rho_2$可以利用式(7)计算.如果已知${\mathit{\boldsymbol{n}}}^{*\text T}$, 则可以计算出$\rho_1=\rho_2/({\mathit{\boldsymbol{n}}}^{*\text T} \mathit{\boldsymbol{m}}^*)$.式(25)中矩阵的系数为$1/\rho_1$.因此, 可以不直接对当前深度$Z$进行估计, 只要预先估计期望视点下的距离$d^*$即可.此外, 该方法需要对象特征处于平面内, 位置控制只采用了一个特征点的扩展坐标, 形成的交互矩阵$L_{ev}$$3\times3$的可逆矩阵.

显然, 混合视觉伺服需要获得两个视点之间的姿态矩阵$R$. 2000年, Malis等[3]介绍了估计两个视点之间位姿的方法, 包括8点法估计基本矩阵、虚拟平面法估计单应性矩阵等.获得基本矩阵或者单应性矩阵后, 经过分解获得姿态矩阵$R$.针对多特征点问题, Malis等[37]于2003年给出了轮廓上多特征点的视觉伺服方法, 位置控制部分仍然采用$3\times3$的交互矩阵$L_{ev}$$L_{ew}$, 交互矩阵的每个元素采用单点特征交互矩阵相应元素的均值.为解决特征选择与匹配问题, 2005年Malis等[38]将视觉跟踪和视觉伺服技术相结合, 提出了基于模板的视觉伺服.将ESM (Efficient second-order minimization)算法用于视觉跟踪, 在帧间偏移量较大的情况下, 可以实现基于模板的跟踪以及对单应性矩阵的实时估计.

2005年Chen等[39-40]针对Eye-in-hand和Eye-to-hand视觉系统, 采用上述2.5D视觉伺服方法设计了控制系统. Chen等分别给出了开环系统和闭环系统, 开环系统是摄像机与目标相对运动的特性, 闭环系统是增加控制律后的系统.利用基于Lyapunov稳定性的自适应控制策略补偿对象模型未知和深度未知带来的影响, 实现了机器人末端对笛卡尔空间期望轨迹的有效跟踪.

2009年, Hu等[41]在相机的内参数未知情况下, 利用消失点计算出单应性矩阵.由于视点到消失点的距离为$\infty$, 由式(8)可知, 此时计算出的单应性矩阵就是摄像机两个视点之间的相对姿态矩阵.将姿态表示为四元数[41-42], 设计了高增益鲁棒控制器用于姿态控制.设计了用于位置控制的自适应控制器, 针对未知的深度信息和摄像机内参数进行了补偿.

Dixon等[43-44]将单应性矩阵$H$用于移动机器人控制, 只考虑移动机器人在平面内的2自由度平移和1自由度旋转.估计$H$后, 分解获得$\theta$和位置偏差.设计控制律时, 先计算角速度, 然后基于角速度计算线速度. Lopez-Nicolas等[45]定义了移动机器人的3种路径, 分别为旋转、直线、对数螺旋曲线路径.直接利用单应性矩阵的元素, 针对3种路径设计多阶段式的控制算法.

基于单应性矩阵的2.5D视觉伺服, 单应性矩阵的估计误差以及分解出$R$时产生的误差, 会导致系统存在稳态误差.为此, 2011年Zhang等[46]不采用单应性矩阵, 而是在考虑移动机器人的2自由度平移和1自由度旋转的约束情况下, 直接估计旋转角和平移量.然后, 旋转采用基于位置的控制, 平移采用基于图像的控制, 形成2.5D混合视觉伺服.

2.3 基于基本矩阵的视觉伺服

基于基本矩阵的视觉伺服, 利用极线几何约束形成方程(9), 在图像空间估计两个视点之间的基本矩阵$F$, 然后结合内参数矩阵计算本质矩阵$E$.也可以在焦距归一化成像空间, 利用$\mathit{\boldsymbol{m}}^{\text T}E {\mathit{\boldsymbol{m}}^*}=0$估计本质矩阵$E$.对本质矩阵$E$分解获得旋转矩阵$R$和平移向量${\mathit{\boldsymbol{t}}}_e$, 用于对姿态和位置的控制.

1999年Basri等[47]利用$\mathit{\boldsymbol{m}}^{\text T}E {\mathit{\boldsymbol{m}}^*}={\text 0}$估计本质矩阵$E$.利用$E {\mathit{\boldsymbol{t}}}= 0$求解出${\mathit{\boldsymbol{t}}}_e$, 然后利用$E=R[{\mathit{\boldsymbol{t}}}]_\times$求解$R$. ${\mathit{\boldsymbol{t}}}_e$带有比例因子, 在${\mathit{\boldsymbol{t}}}_e$的基础上, 利用3个视点构成的直线交比不变性确定出${\mathit{\boldsymbol{t}}}$.由于$[{\mathit{\boldsymbol{t}}}]_\times$不可逆, 所以采用$[{\mathit{\boldsymbol{t}}}]_\times$的前两列叉乘作为其第3列, 采用$E$的前两列叉乘作为第3列, 保留$[{\mathit{\boldsymbol{t}}}]_\times$$E$的前两列, 构成新的等式$E' =R[{\mathit{\boldsymbol{t}}}']_\times$.两边乘以$[{\mathit{\boldsymbol{t}}}']_\times$的逆, 获得旋转矩阵$R$.利用获得的$R$${\mathit{\boldsymbol{t}}}$分别控制姿态和平移, 将相机从当前视点运动到期望视点. 2009年Sebastian等[48]将式(9)作为约束, 引入基于图像雅可比矩阵的视觉伺服, 提高了视觉伺服的鲁棒性.

基于极线几何的视觉方法, 在移动机器人的控制中比较常见[49-53].例如, 文献[49]和[50]采用基于极线几何的方法, 设计了对准、趋近策略, 第1步对准目标, 第2步接近目标, 实现了移动机器人对目标的趋近. 2013年, Montijano等[52]利用极线几何约束, 实现了多移动机器人的一致性控制. 2014年, Mitic等[53]提出了一种基于演示和极线约束的神经网络学习方法, 用于非完整约束移动机器人的视觉控制.

在视觉伺服的收敛过程中, 在当前图像与期望图像比较接近时, 极线约束退化.此时, 难以准确估计两个视点之间的位姿[10].

2.4 其他视觉伺服方法

2002年Andreff等[54]提出了基于线特征的视觉伺服, 实现了姿态与位置控制的解耦.直线的方向在3D笛卡尔空间进行估计, 不同方向直线的交汇点作为特征点用于位置控制.当不同方向的直线形成正交三面体(Orthogonal trihedron)时, 控制律与深度无关, 控制系统渐近稳定.其他情况下, 需要采用激光器测距获得交汇点的深度信息.交汇点的深度获取问题, 限制了该方法的应用.

2008年, Wang等[55]提出了分别采用点、线特征的自适应视觉伺服方法.基于相机透视成像模型和机器人模型, 分别推导了点、线特征的图像雅可比矩阵, 并分别利用其转置将特征偏差转化为关节力矩.该方法将深度$Z$作为公共项从点、线交互矩阵中提出, 剩余的交互矩阵不含有深度$Z$, 称为深度无关的交互矩阵.利用该方法在3自由度机械臂上进行的实验中, 机械臂末端位置的变化范围很小, $X$$Y$$Z$方向的变化范围均为mm级.实际上, 如果不对深度进行估计, 则该方法相当于采用了固定深度$Z=1$.在深度变化较大的情况下, 视觉伺服过程中产生的机器人末端轨迹会存在较大波动. 2013年Liu等[56]分别推导了距离、角度、面积、质心的图像雅可比矩阵, 但仅利用质心坐标的交互矩阵进行了3自由度机器人的视觉伺服实验.利用质心的交互矩阵转置, 将特征偏差转化为关节力矩, 控制机器人的运动.同样的, 深度相当于固定值$Z=1$.

将多种控制器相结合, 有利于发挥不同视觉伺服方法的优势.例如, 2010年Lopez-Nicolas等[57]分别基于两个视点之间的单应性矩阵和极线几何设计了两个控制器, 利用开关控制律将这两个控制器结合在一起, 可避免基于单应性矩阵或极线几何的单一控制器的不足.

部分研究人员将对象的CAD模型作为先验知识用于视觉伺服[58-62].例如, Marchand等[59]提出了一种基于对象的2D-3D模型的视觉跟踪方法, 首先在2D空间对对象进行跟踪, 然后在3D空间对对象进行跟踪.其中, 2D空间的跟踪基于仿射变换, 3D空间的跟踪基于CAD模型匹配[60]. 2005年Yesin等[61]针对微装配, 设计了基于CAD模型的跟踪方法. 2010年Tamadazte等[62]设计了一种基于CAD模型的跟踪方法, 采用点到直线的交互矩阵, 实现了微装配的视觉控制.

2011年Dame等[63]提出了一种基于互信息(Mutual information)的视觉伺服方法, 以整幅图像作为参考, 将参考图像的熵加当前图像的熵减去两者的联合熵定义为互信息特征, 推导了互信息特征的交互矩阵.该方法的优点是不需要匹配或者跟踪图像特征, 对于光照变化鲁棒, 而且在同一个任务中可以有不同的图像模式.该方法具有较高的精度, 但笛卡尔空间的运动路径不够合理, 收敛速度较慢.

3 若干关键问题 3.1 相机选择

常用的相机类型包括透视投影相机和全景相机等.透视投影相机可以采用小孔模型描述, 应用比较广泛.在镜头畸变较小可以忽略或者经过畸变校正后, 透视投影相机的成像具有下列特点:直线的图像仍然是直线, 不同视点下具有极线几何约束.上述特点为点、线特征提取, 特别是直线特征提取, 带来较大的便利.针对透视投影相机采集的图像, 提取出特征点后, 可以计算交互矩阵、单应性矩阵、基本矩阵等, 进而用于视觉伺服.事实上, 前面讨论的交互矩阵、单应性矩阵、基本矩阵等, 都是基于透视投影相机模型的.可见, 透视投影相机适合于对对象的视觉跟踪, 即适合于视觉伺服.全景相机可以采用球面模型描述, 在移动机器人中应用较多.全景相机由二次曲面反射镜和透视投影相机构成, 二次曲面反射镜将360度方向的场景反射到透视投影相机, 成像后的图像因尺度压缩不同而具有很大畸变.全景相机能够直接给出对象的方位, 在移动机器人的路径跟踪和对象跟踪中具有优势[64-67].例如, 2008年Hadj-Abdelkader等[66]针对中心折返式全景相机, 推导出直线特征的交互矩阵, 分别实现了6自由度机械臂和非完整约束移动机器人的视觉伺服. 2010年Becerra等[67]基于1D的三视张量, 实现了移动机器人的全向视觉控制.

3.2 特征选择与误差表征

视觉系统的常用特征包括点、直线、圆、面积、矩[67-70]、熵[71]等特征.一般地, 点特征的抗干扰能力较差, 直线和圆特征的抗干扰能力较强, 面积和矩特征的抗干扰能力最强.在视觉伺服中, 上述特征均有应用[72-84].例如, 2005年Mahony等[74]利用平行线Plücker坐标构成图像特征, 实现了4旋翼无人机基于图像的视觉伺服. 2008年Mahony等[75]采用质心和光流特征, 实现了基于动态图像的视觉伺服. 2010年Lopez-Nicolas等[77]采用三视点张量构成交互矩阵, 2017年Chen等[78]采用三视点张量估计方向和带比例因子的位移, 实现了移动机器人的视觉伺服. 1998年Lane等[80]基于光流进行运动估计和目标识别, 但光流法可有效跟踪的自由度较少[81]. 2012年Lin等[21]定义了4个低阶矩不变量, 实现了基于模型的视觉跟踪. 2013年Zhao等[82]利用改进的图像矩, 实现了6自由度机器人的基于图像的视觉伺服. 2011年Fomena等[84]基于球面投影设计了一种位置与姿态分离的视觉伺服方法.其中, 利用3个点的球面投影的笛卡尔空间距离, 构成3个旋转不变量, 用于位置控制; 利用两个点的图像确定转轴和转角, 用于姿态控制.

虽然点特征的抗干扰能力较差, 但点特征既可用于基于交互矩阵的视觉伺服, 又可用于基于单应性矩阵和基于基本矩阵的视觉伺服.点特征用于基于交互矩阵的视觉伺服时, 由多个点特征计算点交互矩阵, 在图像空间实现视觉伺服.点特征用于基于单应性矩阵的视觉伺服时, 利用4个及以上的点特征计算单应性矩阵$H$.点特征用于基于基本矩阵的视觉伺服时, 利用8个及以上的点特征计算基本矩阵$F$. $H$$F$分解出姿态矩阵$R$和平移向量${\mathit{\boldsymbol{t}}}_e$后, 在笛卡尔空间实现视觉伺服.直线、圆、面积、矩等特征仅用于基于交互矩阵的视觉伺服, 分别计算出其交互矩阵后, 在图像空间实现视觉伺服.

选择的特征不同, 对应的误差表征方式也不同.对于点特征, 其误差表征方式包括图像特征偏差$\mathit{\boldsymbol{m}}- \mathit{\boldsymbol{m}}^*$、笛卡尔空间偏差$\theta {{\mathit{\boldsymbol {r}}}_a}$${\mathit{\boldsymbol{t}}}_e$、式(20)所示的$\pmb e_v$$\pmb e_w$.值得注意的是, 式(20)所示的$\pmb e_v$$\pmb e_w$是作为笛卡尔空间误差对待的, 但实际上它们既不属于笛卡尔空间, 也不属于图像空间.对于直线特征, 其误差表征方式为直线在焦距归一化成像平面上的极坐标参数$\rho$$\theta$的偏差.其中, $\theta$的偏差较常用.对于圆特征, 表征误差的方式为图像空间椭圆的二元二次方程的系数偏差, 共5个参数[16].对于面积和矩等特征, 表征误差的方式为图像空间的面积偏差和矩的偏差.在确定了特征以及误差表征方式后, 就确定了是在图像空间还是在笛卡尔空间设计控制律.

部分研究人员采用对象的整体特征, 以避免特征提取与匹配[35, 85-87].例如, 2011年Collewet等[85]利用所有像素点的亮度作为特征, 采用基于交互矩阵的视觉伺服, 实现了对目标的定位与跟踪. 2012年Silveira等[35]提出了一种直接视觉伺服方法, 利用对象的像素强度进行匹配优化, 估计当前视点与期望视点之间的投影参数, 如含有姿态的矩阵$G=ARA^{-1}$和极点等.该方法可避免特征点提取与匹配, 提高鲁棒性.

3.3 深度估计

由式(1)可知, 点交互矩阵与深度有关, 基于点交互矩阵的视觉伺服需要估计深度.在相机的运动已知的情况下, 可以根据相机运动和特征点的变化估计深度, 见式(28).此外, 在当前视点与期望视点的深度相差不是很大时, 可以采用期望视点的深度, 见第2.1.1节.

$ \begin{align} Z=\frac{1}{2}\frac{x v_z-v_x}{\dot{x}-xy\omega_x+(1+x^2)\omega_y-y\omega_z}+ \nonumber\\ \frac{1}{2}\frac{y v_z-v_y}{\dot{y}-(1+y^2)\omega_x+xy\omega_y+x\omega_z} \end{align} $ (28)

2008年Luca等[88]提出了一种基于状态观测器的深度估计方法.定义状态为$\pmb x_s=[u_c$ $v_c$ $1/Z]^{\rm T}$, 输出为$\pmb y_s=[u_c$ $v_c]^{\rm T}$, 其中$u_c=u-u_0$, $v_c=v-v_0$, ($u$, $v$)是特征点的图像坐标, ($u_0$, $v_0$)是光轴中心点即主点的图像坐标. Luca等建立了状态方程, 设计了状态观测器.在相机运动为非纯旋转的情况下, 利用观测器可以得到深度$Z$.但在相机进行纯旋转运动时, 不能对深度进行观测. 2010年Cheah等[89]设计了一种基于自适应雅可比矩阵的视觉控制方法, 将深度作为机器人关节角的函数, 根据机器人的关节角对深度信息进行估计.该方法将深度与机器人的关节角关联, 具有较大的局限性.

在基于单应性矩阵的2.5D视觉伺服中, $\rho_1=Z/d^*$, $\rho_2=Z/Z^*$. $\rho_2$可以利用式(7)估计, 如果期望视点下的$Z^*$$d^*$已知, 则可以计算出$\rho_1$.在基于基本矩阵的视觉伺服中, 利用两个视点的极线几何估计出的位置矢量${\mathit{\boldsymbol{t}}}_e$带比例因子, 给控制带来不便.为解决上述问题, 部分研究人员采用三视几何方法[47, 50].例如, Basri等[47]利用3个视点构成的直线交比不变性确定出${\mathit{\boldsymbol{t}}}$. Becerra等[50]以增加中间辅助视点的方式, 将视觉伺服分为对准和趋近目标两步, 第1步调整姿态和位置从而对准目标, 第2步保持姿态并调整位置以便趋近目标.该方法对相机的标定误差不灵敏.

部分研究人员采用其他辅助传感器获得深度.例如, 2009年Xie等[90]采用激光结构光测距获得特征的深度信息, 将位置控制与姿态控制分离, 设计了开关式视觉伺服方法.该方法包括3个阶段, 分别为旋转阶段、平移阶段和精确对准阶段.其中, 在平移阶段, 采用矩形的4个角点和激光光斑作为特征, 旋转量设定为0, 采用测距获得的深度计算平移图像雅可比矩阵, 利用基于图像的视觉伺服将图像特征移动到期望特征附近.

深度估计的准确性对视觉伺服的性能具有重要影响.在视觉伺服中如何有效估计深度, 仍然是亟待解决的问题.

3.4 位姿解耦

位置控制与姿态控制的耦合作用给视觉伺服系统的性能带来不利影响, 位姿解耦的目的是消除位置控制与姿态控制之间的耦合.但实际上, 位置控制与姿态控制之间的耦合作用是难以消除的.例如, 第2.2.1节的基于位置的视觉伺服方法, 虽然位置控制和姿态控制在控制律上是解耦的, 但在运行过程中, 姿态控制会对相机的位置控制产生影响, 姿态与位置的耦合作用并不能够消除.在姿态调整量较大的情况下, 对象可能出相机的视野, 导致视觉伺服失败.类似地, 第2.2.2节的解耦控制和第2.2.3节的2.5D视觉伺服, 也存在上述问题. Anh等[30]的分离控制方法, 分别选择表征位置、姿态的6个特征, 针对每一个自由度分别设计控制器.这种选择不同特征的分离控制方法, 同样存在耦合影响问题.

另一种思路是在设计控制律时考虑耦合影响.对于安装在6自由度工业机器人末端的相机, 相机的平移对表征姿态的特征不会产生影响, 但相机的旋转会对表征位置的特征产生影响.因此, 在设计工业机器人的视觉伺服控制律时, 可以先设计旋转控制律, 再设计平移控制律, 并对旋转运动导致的平移在平移控制律中进行补偿, 从而降低旋转对平移的影响[28, 31].对于安装在移动机器人上的相机, 由于受非完整性约束(Nonholonomic constraints), 相机在垂直于移动机器人前进的侧向上不能直接平移, 只能结合旋转运动才能产生侧向移动, 平移与旋转的耦合更加紧密.因此, 在设计移动机器人的视觉伺服控制律时, 往往先设计旋转控制律, 再结合旋转角速度设计平移控制律[51].文献[49]和[50]将移动机器人的视觉伺服分为两个阶段, 第1阶段为对准, 通过旋转运动使得移动机器人正对着被跟踪对象; 第2阶段为趋近, 通过向前平移运动使得移动机器人接近被跟踪对象.在设计控制律时, 结合运动机构的特性, 考虑姿态控制与位置控制的耦合作用, 对于改善视觉伺服系统的性能具有重要作用.但也有研究人员给定移动机器人的前进速度, 然后只设计移动机器人的旋转控制律.例如, 2011年Cherubini等[91]设定非完整约束移动机器人以恒速运动, 分别采用基于姿态和基于图像的视觉伺服方法, 计算出移动机器人的角速度, 实现对路径的趋近与跟踪.

3.5 系统稳定性与目标丢失

理论上, 基于图像的视觉伺服系统, 能够实现局部稳定; 基于位置的视觉伺服系统, 能够实现全局渐近稳定[92].对于基于位置的视觉伺服系统, 只要被跟踪对象处于相机视野内, 且获得的相机当前位姿正确, 则通过合理选择控制参数能够保证系统的稳定性[93].对于基于图像的视觉伺服系统, 在采用点特征时, 存在多解问题和交互矩阵奇异问题.由P$n$P (Perspective-$n$-point)问题可知, 对于1组特征点的图像坐标, 相机可能有多个对应视点, 即存在多解.如果不对笛卡尔空间的特征点进行约束, 即使有无穷多个特征点, 也会存在多解问题[94].多解问题对于控制非常不利, 会导致出现较大的波动.如果4个可区分的特征点共面且其中任意3个特征点不共线, 则P$n$P问题具有唯一解.因此, 对于基于点交互矩阵的视觉伺服, 需要选择至少4个共面特征点, 且需要满足4个共面特征点中任意3个特征点不共线.在交互矩阵的秩小于6时, 可以增加补偿项, 避免出现相机速度过高现象.

无论基于图像的视觉伺服还是基于位置的视觉伺服, 都存在目标丢失问题.一旦被跟踪对象从相机的视野中丢失, 则导致视觉伺服失败.为解决目标丢失问题, 研究人员提出了一系列策略[95-106].最简单的方法是对旋转量进行限制, 例如2007年Metni等[95]为了保证对象不出相机的视野, 将每一次的旋转角度限定到很小的范围内.另一种策略是采用开关式方法避免目标丢失[96-97].例如, 2004年Chesi等[96]设计了一种开关式方法, 使得图像特征在视觉伺服过程中保持在相机的视野内. 2005年Deng等[97]提出了一种混合运动控制策略, 利用开关控制切换基于位置的视觉伺服和基于图像的视觉伺服, 以避免图像奇异与局部极小.将对象在相机视野内作为约束, 对相机路径进行规划或者优化, 是避免目标丢失的一类有效方法[98-103].例如, 2003年Mezouar等[98]对基于图像的视觉伺服的相机3D轨迹进行优化, 在优化中引入对象处于相机视野内以及机械臂的关节限位等约束, 以避免目标丢失和关节限位导致的视觉伺服失败. 2003年Kragic等[99]提出对视觉线索投票的方法, 以提高视觉伺服的鲁棒性. 2014年Ibarguren等[100]在获得图像特征后经粒子滤波估计位姿, 采用基于位置的视觉伺服, 提高系统的鲁棒性. 2004年Chesi等[101]以目标为中心设定圆弧, 控制相机在圆弧上运动, 保证目标处于相机的视野中. 2005年Cowan等[102]认为可视特征集及其图像是微分流形, 而且是全局微分同胚的, 可采用微分同胚在全局范围内保持图像特征在相机视野内. 2006年Schramm等[103]利用两个视点的多个匹配点特征的图像坐标, 计算出$G=A^{-1}RA$${\mathit{\boldsymbol{t}}}_e=A {\mathit{\boldsymbol{t}}}$.对$G$进行特征值分解获得转角$\theta$和矢量${\mathit{\boldsymbol {r}}}_a$, 对$\theta$插值得到$\alpha_i \theta$, $\alpha_i\in[0, 1]$, 进而获得中间插值的姿态$R_i$.对${\mathit{\boldsymbol{t}}}_e$插值获得${\mathit{\boldsymbol{t}}}_{e i}=\alpha_i {\mathit{\boldsymbol{t}}}_e$, 即获得中间插值的位置.利用插值进行路径规划, 可以细分姿态变化, 保证对象的特征处于相机视野内.上述运动规划方法以及限制旋转角的方法, 存在的不足之处是明显降低了视觉伺服的收敛速度.采用学习或者自适应策略, 也是解决目标丢失的有效途径[104-106].例如, 2010年Wang等[104]针对移动机器人, 提出了一种基于图像的视觉伺服与Q学习相结合的方法, 通过Q学习确定机器人的行为, 使得视觉特征保持在相机的视野内. 2011年Gans等[105]采用欠定任务函数调节图像特征的均值与方差, 通过调整任务函数以保持特征点处于相机的视野内. 2012年, Fang等[106]针对移动机器人提出了一种自适应主动视觉伺服方法.在移动机器人运动时, 摄像机旋转使得被观测点位于图像中心.该方法采用单应性矩阵估计移动机器人与目标之间的位姿.在摄像机的内参数经过预先标定的情况下, 推导出了摄像机旋转速度与图像特征偏差、移动机器人角速度之间的关系.该方法能够保证移动机器人运动过程中目标始终处于相机的视野内.

此外, 由式(1)可知, 平移产生的特征点图像特征变化较小, 旋转产生的特征点图像特征变化较大, 特别是绕$X$$Y$轴的旋转引起的特征点图像特征变化最大.一般地, 平移不会导致目标丢失, 旋转后进行平移补偿可以使得目标保持在相机视野内.

3.6 系统标定

如果采用的特征处在相机的焦距归一化成像平面上, 例如前述特征$\mathit{\boldsymbol{m}}$, 则需要对相机的内参数进行标定.相机的内参数经过预先标定后, 利用特征点的图像坐标和相机内参数, 可以计算出特征点在焦距归一化成像平面上位置矢量$\mathit{\boldsymbol{m}}$.如果采用图像平面的特征, 则相机的内参数需要包含在交互矩阵内, 同样需要对相机的内参数进行标定.例如, 文献[88]采用点的图像坐标作为特征, 在交互矩阵中包含了放大系数$k$和主点图像坐标$(u_0, v_0)$.除了交互矩阵之外, 在获取式(7)所示的单应性矩阵或者式(10)所示的基本矩阵时, 均需要相机的内参数.可见, 无论是基于交互矩阵的视觉伺服, 还是基于单应性矩阵、基本矩阵的视觉伺服, 都需要对相机的内参数进行标定.相机的内参数一般采用预先标定的方式.基于图像的视觉伺服, 对相机内参数的误差不灵敏, 只需要对相机内参数粗略标定即可.基于位置的视觉伺服, 例如第2.2节和第2.3节中的视觉伺服方法, 分别需要从单应性矩阵$H$或者本质矩阵$E$中分解出旋转变换矩阵$R$和位移矢量${\mathit{\boldsymbol{t}}}_e$, 需要获得准确的$H$或者$E$, 从而需要准确的相机内参数.

前述视觉伺服的控制律, 大部分是针对相机坐标系给出的.装载相机的运动机构的坐标系, 往往与相机的坐标系不同, 这就需要标定两者之间的关系, 即进行外参数的标定.通常, 为了提高使用的方便性, 在安装相机时使得相机坐标系与运动机构坐标系的坐标轴平行, 以避免外参数的标定.

为了克服相机参数标定带来的不便, 大量研究人员致力于研究无标定或者在线标定视觉伺服方法[107-117].例如, Piepmeier等[109-110]提出了一种无标定视觉伺服方法, 利用Broyden法[111]或牛顿法在线估计图像雅可比矩阵, 实现了Eye-in-hand视觉系统的视觉伺服. 2003年Shen等[112]针对无标定的Eye-to-hand视觉系统, 在线估计视觉系统的旋转变换矩阵. 2006年, Liu等[113]提出了无标定视觉伺服方法, 采用结合Slotine-Li方法的自适应算法, 在线最小化特征点在投影平面的误差, 实现了机器人对平面上点特征的跟踪. 2017年, Zhang等[114]提出了一种无标定视觉伺服方法, 用于移动机器人的控制.该方法分为两个阶段, 第1阶段采用自适应速度控制器, 将角度误差和侧向位置误差调整到零附近; 第2阶段采用比例控制器调整纵向位置误差. 2004年Malis[116]提出了一种不依赖于相机内参数的视觉伺服方法, 采用3个空间点图像坐标组成的矩阵的逆与图像点坐标构成针对摄像机内参数的不变性变量, 利用不变性变量实现了视觉伺服. 2011年Kosmopoulos[117]将小工作空间内的雅可比矩阵看作是常数, 通过离线标定获得.由于上述方法做了许多假设, 所以其在实际应用中受到限制.

4 典型应用与未来趋势 4.1 典型应用

视觉伺服具有广泛的应用前景, 近年来在工业、农业、交通、航空航天、医疗等众多领域均有视觉伺服应用的报道.视觉伺服在工业领域的应用极其广泛[118-120].例如, 1998年Horaud等[118]将基于交互矩阵的视觉伺服用于机器人的趋近抓取. 2000年Xiao等[119]针对Eye-to-hand视觉系统, 采用基于交互矩阵的视觉伺服控制目标的线速度, 实现了工业机器人力位混合控制. 2007年Lippiello等[120]采用混合视觉系统, 在由多台工业机器人构成的制造单元中实现了基于位置的视觉伺服.

除了在工业领域的应用之外, 视觉伺服在微装配领域的应用也很广泛, 常用于操作手或微零件的趋近和对准控制等[121-126].例如, 2000年Ralis等[123]采用由粗到精的视觉伺服策略, 在不考虑$Z$方向平移的情况下, 利用基于交互矩阵的视觉伺服, 实现了微装配系统的精确定位. 2004年Ferreira等[124]提出了一种基于视觉伺服和虚拟现实的自动微装配系统, 采用基于推动的微操作策略, 利用基于位置的视觉伺服实现硅片的轨迹跟踪, 将硅片运动到期望位置和姿态; 采用基于视觉的力传感方法, 实现微夹钳的微夹持力控制. 2008年Wang等[125]采用基于图像矩的视觉伺服, 实现了微轴孔的装配. 2008年Wang等[126]采用基于位置的视觉伺服控制, 实现了微零件的自动装配.

视觉伺服也常用于生物医学领域的微操作, 用于注射针对细胞或胚胎的对准[127-131].例如, 2002年Sun等[128]将视觉伺服用于生物医学领域, 利用自主微机器人系统实现了生物细胞注射. 2009年Zhang等[129]采用基于位置的视觉伺服控制, 实现了注射针对细胞的趋近与注射. 2009年Sakaki等[130]采用基于图像的视觉伺服, 利用5自由度机械臂实现了对细胞的定位和注射. 2017年, Zhuang等[131]将视觉伺服用于斑马鱼幼体心脏微注射系统.

视觉伺服在医疗机器人领域的应用也比较常见, 常用于对组织的定位与跟踪[132-134].例如, 1997年Wei等[132]将视觉伺服用于腹腔镜胆囊切除术, 根据图像坐标确定机器人的运动方向, 实现了运动方向解耦. 2003年Krupa等[133]基于交比不变性估计激光指向仪器与人体组织之间的距离.基于运动标定获得的图像雅可比矩阵, 对2个旋转自由度和沿$Z$方向的平移自由度进行估计.结合图像特征的坐标和深度信息, 实现仪器对指向的人体组织的定位.使用过程中, 该指向仪器根据图像特征误差, 利用视觉伺服算法实现在图像平面内的跟踪与对准. 2002年Abolmaesumi等[134]将超声探头加装在机器人上, 以超声图像中的探针为特征, 利用图像雅可比矩阵建立探针图像特征变化与机器人运动之间的关系, 采用基于图像的视觉伺服, 实现了对探针跟踪颈动脉的有效控制.

基于图像的视觉伺服常用于无人机控制中, 用于目标跟踪以及自主降落等[135-145].例如, 2006年Mejias等[140]基于Kalman滤波在图像空间跟踪目标, 实现自主直升机在城区的视觉伺服. 2008年Guenard等[141]以4点构成的靶标质心为特征, 采用基于图像的视觉伺服, 实现了4旋翼无人机相对于靶标的悬停控制. 2009年Bourquardez等[142]针对4旋翼无人机, 采用基于图像的视觉伺服, 实现了无人机的平移运动控制. 2017年, Xie等[143]提出了一种输入饱和的基于图像视觉伺服方法, 采用内环控制无人机的高度, 外环控制无人机的侧向速度和偏航速度. 2012年Mahony等[144]撰写了关于多旋翼无人机控制的教程, 认为未来无人机基于视觉的感知与控制包括两种方法, 分别为SLAM方法和基于图像雅可比矩阵的视觉伺服方法.基于位置的视觉伺服在无人机控制中也有应用.例如, 2014年Plinval等[33]利用基于单应性矩阵的解耦控制方法, 实现了无人直升机对地面目标的视觉跟踪.

此外, 2002年Marchand等[146]将视觉伺服应用于虚拟现实. 2003年Gracias等[147]将视觉伺服用于水下机器人, 基于单应性估计机器人的位姿, 创建基于马赛克(Mosaic-based)的海底地图; 利用创建的海底地图进行导航, 采用基于图像雅可比矩阵的视觉伺服实现对规划路径的跟踪. 2014年Mehta等[148]将视觉伺服用于柑橘收获机器人, 采用视觉伺服控制机器人的作业, 其姿态采用基于位置的控制, 位置采用基于图像的控制. 2015年Mehta等[149]将视觉伺服用于导弹制导, 通过单应性矩阵计算出目标在导弹坐标系中的位置, 以及坐标系之间的姿态矩阵. 2015年Cai等[150]提出了基于模板匹配的视觉伺服, 用于空间系留机器人对非合作目标的跟踪. 2017年, Wang等[151]针对具有内窥镜视觉反馈的软体机器人, 基于分段常曲率假设设计了一种自适应视觉伺服方法.基于图像特征对机器人操作器实际长度和目标位置进行在线估计, 消除软体机器人不确定性的影响.

4.2 未来趋势

传统的视觉伺服并未考虑路径合理性与约束问题.例如, 基于图像的视觉伺服, 虽然在图像空间相机的轨迹是合理的, 但在3D空间相机的轨迹不尽合理, 在偏移较大时会导致伺服失败.为此, 研究人员对相机的运动轨迹进行路径规划[98, 152-160].例如, 2003年Mezouar等[98]针对基于图像的视觉伺服, 在生成的期望轨迹上引入约束, 包括对象处于相机视野内以及机械臂的关节限位等, 进而对相机运动轨迹进行优化, 以避免视觉伺服失败. 2005年Pomares等[152]提出基于运动流的视觉伺服, 用于轨迹跟踪时在图像空间和笛卡尔空间产生正确的行为. 2007年Chesi等[153]考虑工业机器人视觉伺服中的约束问题, 包括可视性、工作空间(含避障等)、关节限位等, 建立了包含跨图像区域、轨迹长度和曲率的目标函数, 通过优化获得视觉伺服的全局路径[154]. 2009年Gracia等[155]在视觉伺服中考虑滤波、视觉系统时延等因素. 2009年Fontanelli等[156]通过建立扩展视觉地图, 存储一系列图像、搜索相位、拓扑与空间信息的转换关系、连通性、可行路径等信息, 采用视觉伺服实现了移动机器人在大场景中的自主导航.为提高视觉伺服的鲁棒性, 2013年Kazemi等[157]提出了一种随机全动态路径规划方法.该方法考虑相机动态、图像临界集和物理约束, 生成连续可微的相机轨迹.通过迭代扩展搜索树并跟踪机器人空间中的轨迹, 搜索相机的状态空间寻找可行轨迹.相机轨迹投影到图像空间生成期望的图像轨迹, 用于基于图像的视觉伺服. 2010年Tahri等[158]采用ESM优化图像雅可比矩阵的伪逆, 减小估计误差, 提高视觉伺服系统的性能. 2016年, Gao等[160]提出了一种多层次模型预测的基于图像的视觉伺服方法, 用于水下机器人的控制.外环利用非线性模型预测控制器生成期望速度, 在可视性和速度约束下对预测的图像轨迹进行优化.在动态速度跟踪内环, 设计了基于神经网络的模型参考自适应控制器, 用于在具有不确定性的情况下保证速度跟踪误差的收敛性.考虑笛卡尔空间相机路径的合理性与运动机构约束问题, 利用优化方法对相机路径进行规划, 是视觉伺服未来的重要发展方向之一.

学习能力对提高视觉伺服系统性能具有重要帮助, 因此, 大量研究人员致力于对视觉伺服系统赋予学习能力[161-165].例如, 2008年Zhao等[161]提出了一种基于外观特征的机器人视觉伺服方法, 利用小波神经网络实现图像雅可比矩阵功能. 2013年Miljkovic等[162]将基于神经网络的增强学习引入工业机器人的视觉伺服, 建立了表示学习样本的数据库, 用于加速神经网络的收敛速度并实时学习机器人的行为.为保证特征的可视性, 视觉伺服分为两步, 第1步中的机器人对准行为采用神经网络增强学习控制器实现, 第2步中的趋近行为采用开关控制在传统的基于图像的视觉伺服和神经网络增强学习之间切换实现. 2015年Sadeghzadeh等[163]将自学习引入视觉伺服, 利用模糊神经网络和Q学习实现了机械臂的视觉伺服. 2018年, Shi等[164]提出了高度与速度解耦的视觉伺服控制方法, 利用模糊Q学习实现对无人机控制增益的调节. 2015年Zhao等[165]利用两个神经网络, 解耦计算绕$X$$Y$轴旋转的图像矩, 可避免机械臂视觉伺服中的奇异问题.此外, 示教编程是指示教者在相机前演示期望的动作, 由机器人跟踪并重现这些动作.示教编程是机器人模仿人的过程, 属于模仿学习. 2007年Jiang等[166]认为机器人的模仿过程是在图像平面的具有未知时变图像雅可比矩阵的离散跟踪控制问题.采用一系列神经网络逼近演示轨迹采样点处的未知图像雅可比矩阵, 局部网络的时变权重通过重复跟踪即间接迭代学习控制(Indirect iterative learning control)进行识别.如何结合机器学习的最新研究成果, 提高视觉伺服系统的学习能力, 大幅度改善视觉伺服系统的适应能力, 将是视觉伺服未来的重要发展方向之一.

在视觉伺服的实际应用中, 往往存在大量的先验知识, 将这些先验知识结合到视觉伺服中, 有利于更好地完成跟踪、趋近等任务[167-169].例如, 2007年Mansard等[167]将一个任务分解为多个子任务, 然后采用基于交互矩阵的视觉伺服分别进行控制, 降低了完成任务的难度. 2014年Larouche等[168]利用EKF (Extended Kalman filter)估计目标的运动状态, 利用视觉伺服和运动预测控制, 实现了机械臂对非合作目标的捕获. 2015年Tsai等[169]提出了一种混合开关反应式视觉伺服, 用于5自由度机械臂的拾取和摆放任务.先验知识的加入, 可以有效避免视觉伺服失败, 有利于改进运动灵活性.例如, 由于移动机器人受到非限定性约束, 沿垂直于驱动轮的水平方向不能直接平移.在需要沿垂直于驱动轮的水平方向平移时, 需要结合旋转运动.采用类似于车辆变换车道的方式, 在旋转运动后进行适当的反向旋转, 可以在旋转后使得对象在相机视野内.如果在旋转后对象移出相机的视野, 那么适当的反向旋转能够使得对象重新回到相机的视野内, 降低了对旋转运动量的限制.因此, 如何充分利用先验知识, 提高运动的灵活性, 提高系统应用的方便性, 是视觉伺服未来的重要发展方向之一.

网络化有利于对计算能力的大幅度提升, 将复杂的计算放在云端, 可以极大地简化本地控制系统[170].例如, 2013年Wu等[170]提出基于云的网络化视觉伺服, 采用网络化的3D计算, 提高了分布计算能力.因此, 基于网络化的视觉伺服也是未来发展趋势之一.

5 结论

为了更好地体现不同的视觉伺服方法的特点, 本文针对单目视觉系统, 介绍了视觉伺服的运动映射关系, 结合误差表征介绍了视觉伺服的控制律设计.对影响视觉伺服的关键因素, 例如相机选择、特征选择、误差表征、深度估计、位姿解耦、目标保持、相机标定等, 分别进行了分析和论述.最后, 给出了视觉伺服在微装配、医疗机器人和无人机等不同领域的典型应用, 并指出了视觉伺服未来的主要发展方向.

参考文献
1
Hutchinson S, Hager G D, Corke P I. A tutorial on visual servo control. IEEE Transactions on Robotics and Automation, 1996, 12(5): 651-670. DOI:10.1109/70.538972
2
Malis E, Chaumette F, Boudet S. 2-1/2-D visual servoing. IEEE Transactions on Robotics and Automation, 1999, 15(2): 238-250. DOI:10.1109/70.760345
3
Malis E, Chaumette F. 2-1/2 D visual servoing with respect to unknown objects through a new estimation scheme of camera displacement. International Journal of Computer Vision, 2000, 37(1): 79-97.
4
Hashimoto K. A review on vision-based control of robot manipulators. Advanced Robotics, 2003, 17(10): 969-991. DOI:10.1163/156855303322554382
5
Kragic D, Christensen H I. A framework for visual servoing. In:Computer Vision Systems, Lecture Notes in Computer Science, Vol. 2626. Berlin, Heidelberg:Springer, 2003. 345-354
6
Gans N R, Hutchinson S A, Corke P I. Performance tests for visual servo control systems, with application to partitioned approaches to visual servo control. The International Journal of Robotics Research, 2003, 22(10-11): 955-981. DOI:10.1177/027836490302210011
7
Marchand E, Spindler F, Chaumette F. ViSP for visual servoing:a generic software platform with a wide class of robot control skills. IEEE Robotics & Automation Magazine, 2005, 12(4): 40-52.
8
Mariottini G L, Prattichizzo D. EGT for multiple view geometry and visual servoing-Robotics and vision with pinhole and panoramics cameras. IEEE Robotics & Automation Magazine, 2005, 12(4): 26-39.
9
Chaumette F, Hutchinson S. Visual servo control. I. Basic approaches. IEEE Robotics & Automation Magazine, 2006, 13(4): 82-90.
10
Chaumette F, Hutchinson S. Visual servo control. Ⅱ. Advanced approaches. IEEE Robotics & Automation Magazine, 2007, 14(1): 109-118.
11
Miljković Z, Vuković N, Mitić M, Babić B. New hybrid vision-based control approach for automated guided vehicles. The International Journal of Advanced Manufacturing Technology, 2013, 66(1-4): 231-249. DOI:10.1007/s00170-012-4321-y
12
Gans N R, Hutchinson S A. Stable visual servoing through hybrid switched-system control. IEEE Transactions on Robotics, 2007, 23(3): 530-540. DOI:10.1109/TRO.2007.895067
13
Staniak M, Zieliński C. Structures of visual servos. Robotics and Autonomous Systems, 2010, 58(8): 940-954. DOI:10.1016/j.robot.2010.04.004
14
Janabi-Sharifi F, Deng L F, Wilson W J. Comparison of basic visual servoing methods. IEEE-ASME Transactions on Mechatronics, 2011, 16(5): 967-983. DOI:10.1109/TMECH.2010.2063710
15
Jia Bing-Xi, Liu Shan, Zhang Kai-Xiang, Chen Jian. Survey on robot visual servo control:vision system and control strategies. Acta Automatica Sinica, 2015, 41(5): 861-873.
( 贾丙西, 刘山, 张凯祥, 陈剑. 机器人视觉伺服研究进展:视觉系统与控制策略. 自动化学报, 2015, 41(5): 861-873.)
16
Espiau B, Chaumette F, Rives P. A new approach to visual servoing in robotics. IEEE Transactions on Robotics and Automation, 1992, 8(3): 313-326. DOI:10.1109/70.143350
17
Comport A I, Marchand E, Pressigout M, Chaumette F. Real-time markerless tracking for augmented reality:the virtual visual servoing framework. IEEE Transactions on Visualization and Computer Graphics, 2006, 12(4): 615-628. DOI:10.1109/TVCG.2006.78
18
Xu De, Lu Jin-Yan. Determination for interactive matrix of line feature. Acta Automatica Sinica, 2015, 41(10): 1762-1771.
( 徐德, 卢金燕. 直线特征的交互矩阵求取. 自动化学报, 2015, 41(10): 1762-1771.)
19
Tahri O, Chaumette F. Point-based and region-based image moments for visual servoing of planar objects. IEEE Transactions on Robotics, 2005, 21(6): 1116-1127. DOI:10.1109/TRO.2005.853500
20
Chaumette F. Image moments:a general and useful set of features for visual servoing. IEEE Transactions on Robotics, 2004, 20(4): 713-723. DOI:10.1109/TRO.2004.829463
21
Lin F, Dong X X, Chen B M, Lum K Y, Lee T H. A robust real-time embedded vision system on an unmanned rotorcraft for ground target following. IEEE Transactions on Industrial Electronics, 2012, 59(2): 1038-1049.
22
Tahri O, Araujo H, Chaumette F, Mezouar Y. Robust image-based visual servoing using invariant visual information. Robotics and Autonomous Systems, 2013, 61(12): 1588-1600. DOI:10.1016/j.robot.2013.06.010
23
Deguchi K. Optimal motion control for image-based visual servoing by decoupling translation and rotation. In:Proceedings of the 1998 IEEE/RSJ International Conference on Intelligent Robots and Systems. Victoria, Canada:IEEE, 1998. 705-711 https://ieeexplore.ieee.org/document/727274
24
Crétual A, Chaumette F. Visual servoing based on image motion. The International Journal of Robotics Research, 2001, 20(11): 857-877. DOI:10.1177/02783640122068155
25
Corke P I, Hutchinson S A. A new partitioned approach to image-based visual servo control. IEEE Transactions on Robotics and Automation, 2001, 17(4): 507-515. DOI:10.1109/70.954764
26
Iwatsuki M, Okiyama N. A new formulation of visual servoing based on cylindrical coordinate system. IEEE Transactions on Robotics, 2005, 21(2): 266-273. DOI:10.1109/TRO.2004.837242
27
Kelly R, Carelli R, Nasisi O, Kuchen B, Reyes F. Stable visual servoing of camera-in-hand robotic systems. IEEE-ASME Transactions on Mechatronics, 2000, 5(1): 39-48. DOI:10.1109/3516.828588
28
Xu D, Lu J Y, Wang P, Zhang Z T, Zhang D P, Liang Z Z. A new image-based visual servoing method with rotational compensation. In:Proceedings of 2016 IEEE International Conference on Robotics and Biomimetics. Qingdao, China:IEEE, 2016. 1099-1104
29
Xu De, Tan Min, Li Yuan. Visual Measurement and Control for Robots. Beijing: National Defense Industry Press, 2008.
( 徐德, 谭民, 李原. 机器人视觉测量与控制. 北京: 国防工业出版社, 2008.)
30
La Anh T, Song J B. Robotic grasping based on efficient tracking and visual servoing using local feature descriptors. International Journal of Precision Engineering and Manufacturing, 2012, 13(3): 387-393. DOI:10.1007/s12541-012-0049-8
31
Xu D, Lu J Y, Wang P, Zhang Z T, Liang Z Z. Partially decoupled image-based visual servoing using different sensitive features. IEEE Transactions on Systems, Man, and Cybernetics:Systems, 2017, 47(8): 2233-2243. DOI:10.1109/TSMC.2016.2641951
32
Benhimane S, Malis E. Homography-based 2D visual tracking and servoing. The International Journal of Robotics Research, 2007, 26(7): 661-676. DOI:10.1177/0278364907080252
33
de Plinval H, Morin P, Mouyon P, Hamel T. Visual servoing for underactuated VTOL UAVs:a linear, homography-based framework. International Journal of Robust and Nonlinear Control, 2014, 24(16): 2285-2308. DOI:10.1002/rnc.v24.16
34
Jia B X, Liu S, Liu Y. Visual trajectory tracking of industrial manipulator with iterative learning control. Industrial Robot:An International Journal, 2015, 42(1): 54-63. DOI:10.1108/IR-09-2014-0392
35
Silveira G, Malis E. Direct visual servoing:vision-based estimation and control using only nonmetric information. IEEE Transactions on Robotics, 2012, 28(4): 974-980. DOI:10.1109/TRO.2012.2190875
36
Kyrki V, Kragic D, Christensen H I. Measurement errors in visual servoing. Robotics and Autonomous Systems, 2006, 54(10): 815-827. DOI:10.1016/j.robot.2006.05.002
37
Malis E, Chesi G, Cipolla R. 21/2 D visual servoing with respect to planar contours having complex and unknown shapes. International Journal of Robotics Research, 2003, 22(10-11): 841-853. DOI:10.1177/027836490302210004
38
Malis E, Benhimane S. A unified approach to visual tracking and servoing. Robotics and Autonomous Systems, 2005, 52(1): 39-52. DOI:10.1016/j.robot.2005.03.014
39
Chen J, Dawson D M, Dixon W E, Behal A. Adaptive homography-based visual servo tracking for a fixed camera configuration with a camera-in-hand extension. IEEE Transactions on Control Systems Technology, 2005, 13(5): 814-825. DOI:10.1109/TCST.2005.852150
40
Chen J, Dawson D M, Dixon W E, Chitrakaran V K. Navigation function-based visual servo control. Automatica, 2007, 43(7): 1165-1177. DOI:10.1016/j.automatica.2006.12.018
41
Hu G, MacKunis W, Gans N, Dixon W E, Chen J, Behal A, et al. Homography-based visual servo control with imperfect camera calibration. IEEE Transactions on Automatic Control, 2009, 54(6): 1318-1324. DOI:10.1109/TAC.2009.2015541
42
Hu G Q, Gans N, Fitz-Coy N, Dixon W. Adaptive homography-based visual servo tracking control via a quaternion formulation. IEEE Transactions on Control Systems Technology, 2010, 18(1): 128-135. DOI:10.1109/TCST.2008.2009227
43
Fang Y C, Dixon W E, Dawson D M, Chawda P. Homography-based visual servo regulation of mobile robots. IEEE Transactions on Systems, Man, and Cybernetics, Part B-Cybernetics, 2005, 35(5): 1041-1050. DOI:10.1109/TSMCB.2005.850155
44
Chen J, Dixon W E, Dawson D M, McIntyre M. Homography-based visual servo tracking control of a wheeled mobile robot. IEEE Transactions on Robotics, 2006, 22(2): 406-415. DOI:10.1109/TRO.2006.862476
45
Lopez-Nicolas G, Gans N R, Bhattacharya S, Sagüés C, Guerrero J J, Hutchinson S. Homography-based control scheme for mobile robots with nonholonomic and field-of-view constraints. IEEE Transactions on Systems, Man, and Cybernetics, Part B-Cybernetics, 2010, 40(4): 1115-1127. DOI:10.1109/TSMCB.2009.2034977
46
Zhang X B, Fang Y C, Liu X. Motion-estimation-based visual servoing of nonholonomic mobile robots. IEEE Transactions on Robotics, 2011, 27(6): 1167-1175. DOI:10.1109/TRO.2011.2162765
47
Basri R, Rivlin E, Shimshoni I. Visual homing:surfing on the epipoles. International Journal of Computer Vision, 1999, 33(2): 117-137. DOI:10.1023/A:1008194012143
48
Sebastián J M, Pari L, Angel L, Traslosheros A. Uncalibrated visual servoing using the fundamental matrix. Robotics and Autonomous Systems, 2009, 57(1): 1-10. DOI:10.1016/j.robot.2008.04.002
49
Mariottini G L, Oriolo G, Prattichizzo D. Image-based visual servoing for nonholonomic mobile robots using epipolar geometry. IEEE Transactions on Robotics, 2007, 23(1): 87-100. DOI:10.1109/TRO.2006.886842
50
Becerra H M, López-Nicolás G, Sagüés C. A sliding-mode-control law for mobile robots based on epipolar visual servoing from three views. IEEE Transactions on Robotics, 2011, 27(1): 175-183. DOI:10.1109/TRO.2010.2091750
51
Mariottini G L, Prattichizzo D. Image-based visual servoing with central catadioptric cameras. The International Journal of Robotics Research, 2008, 27(1): 41-56.
52
Montijano E, Thunberg J, Hu X M, Sagues C. Epipolar visual servoing for multirobot distributed consensus. IEEE Transactions on Robotics, 2013, 29(5): 1212-1225. DOI:10.1109/TRO.2013.2271101
53
Mitić M, Miljković Z. Neural network learning from demonstration and epipolar geometry for visual control of a nonholonomic mobile robot. Soft Computing, 2014, 18(5): 1011-1025. DOI:10.1007/s00500-013-1121-8
54
Andreff N, Espiau B, Horaud R. Visual servoing from lines. The International Journal of Robotics Research, 2002, 21(8): 679-699. DOI:10.1177/027836402761412430
55
Wang H S, Liu Y H, Zhou D X. Adaptive visual servoing using point and line features with an uncalibrated eye-in-hand camera. IEEE Transactions on Robotics, 2008, 24(4): 843-857. DOI:10.1109/TRO.2008.2001356
56
Liu Y H, Wang H S, Chen W D, Zhou D X. Adaptive visual servoing using common image features with unknown geometric parameters. Automatica, 2013, 49(8): 2453-2460. DOI:10.1016/j.automatica.2013.04.018
57
López-Nicolás G, Guerrero J J, Sagüés C. Visual control of vehicles using two-view geometry. Mechatronics, 2010, 20(2): 315-325. DOI:10.1016/j.mechatronics.2010.01.005
58
Drummond T, Cipolla R. Real-time visual tracking of complex structures. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002, 24(7): 932-946. DOI:10.1109/TPAMI.2002.1017620
59
Marchand É, Bouthemy P, Chaumette F. A 2D-3D model-based approach to real-time visual tracking. Image and Computing, 2001, 19(13): 941-955. DOI:10.1016/S0262-8856(01)00054-3
60
Marchand É, Chaumette F. Feature tracking for visual servoing purposes. Robotics and Autonomous Systems, 2005, 52(1): 53-70. DOI:10.1016/j.robot.2005.03.009
61
Yesin K B, Nelson B J. A CAD model based tracking system for visually guided microassembly. Robotica, 2005, 23(4): 409-418. DOI:10.1017/S0263574704000840
62
Tamadazte B, Marchand E, Dembélé S, Le Fort-Piat N. CAD model-based tracking and 3D visual-based control for MEMS microassembly. The International Journal of Robotics Research, 2010, 29(11): 1416-1434. DOI:10.1177/0278364910376033
63
Dame A, Marchand E. Mutual information-based visual servoing. IEEE Transactions on Robotics, 2011, 27(5): 958-969. DOI:10.1109/TRO.2011.2147090
64
Gaspar J, Winters N, Santos-Victor J. Vision-based navigation and environmental representations with an omnidirectional camera. IEEE Transactions on Robotics and Automation, 2000, 16(6): 890-898. DOI:10.1109/70.897802
65
Goedemé T, Nuttin M, Tuytelaars T, Van Gool L. Omnidirectional vision based topological navigation. International Journal of Computer Vision, 2007, 74(3): 219-236. DOI:10.1007/s11263-006-0025-9
66
Hadj-Abdelkader H, Mezouar Y, Martinet P, Chaumette F. Catadioptric visual servoing from 3-D straight lines. IEEE Transactions on Robotics, 2008, 24(3): 652-665. DOI:10.1109/TRO.2008.919288
67
Becerra H M, López-Nicolás G, Sagüés C. Omnidirectional visual control of mobile robots based on the 1D trifocal tensor. Robotics and Autonomous Systems, 2010, 58(6): 796-808. DOI:10.1016/j.robot.2010.02.011
68
Copot C, Lazar C, Burlacu A. Predictive control of nonlinear visual servoing systems using image moments. IET Control Theory and Applications, 2012, 6(10): 1486-1496. DOI:10.1049/iet-cta.2011.0118
69
Tahri O, Tamtsia A Y, Mezouar Y, Demonceaux C. Visual servoing based on shifted moments. IEEE Transactions on Robotics, 2015, 31(3): 798-804. DOI:10.1109/TRO.2015.2412771
70
Zheng D L, Wang H S, Wang J C, Chen S S, Chen W D, Liang X W. Image-based visual servoing of a quadrotor using virtual camera approach. IEEE-ASME Transactions on Mechatronics, 2017, 22(2): 972-982. DOI:10.1109/TMECH.2016.2639531
71
Dame A, Marchand E. Using mutual information for appearance-based visual path following. Robotics and Autonomous Systems, 2013, 61(3): 259-270. DOI:10.1016/j.robot.2012.11.004
72
Janabi-Sharifi F, Wilson W J. Automatic selection of image features for visual servoing. IEEE Transactions on Robotics and Automation, 1997, 13(6): 890-903. DOI:10.1109/70.650168
73
Cowan N J, Weingarten J D, Koditschek D E. Visual servoing via navigation functions. IEEE Transactions on Robotics and Automation, 2002, 18(4): 521-533. DOI:10.1109/TRA.2002.802202
74
Mahony R, Hamel T. Image-based visual servo control of aerial robotic systems using linear image features. IEEE Transactions on Robotics, 2005, 21(2): 227-239. DOI:10.1109/TRO.2004.835446
75
Mahony R, Corke P, Hamel T. Dynamic image-based visual servo control using centroid and optic flow features. Journal of Dynamic Systems, Measurement, and Control, 2007, 130(1): 011005.
76
Yu Y K, Wong K H, Or S H, Chang M M Y. Robust 3-D motion tracking from stereo images:a model-less method. IEEE Transactions on Instrumentation and Measurement, 2008, 57(3): 622-630. DOI:10.1109/TIM.2007.911641
77
López-Nicolás G, Guerrero J J, Sagüés C. Visual control through the trifocal tensor for nonholonomic robots. Robotics and Autonomous Systems, 2010, 58(2): 216-226. DOI:10.1016/j.robot.2009.09.005
78
Chen J, Jia B X, Zhang K X. Trifocal tensor-based adaptive visual trajectory tracking control of mobile robots. IEEE Transactions on Cybernetics, 2017, 47(11): 3784-3798. DOI:10.1109/TCYB.2016.2582210
79
Matthies L, Xiong Y, Hogg R, Zhu D, Rankin A, Kennedy B, et al. A portable, autonomous, urban reconnaissance robot. Robotics and Autonomous Systems, 2002, 40(2-3): 163-172. DOI:10.1016/S0921-8890(02)00241-5
80
Lane D M, Chantler M J, Dai D Y. Robust tracking of multiple objects in sector-scan sonar image sequences using optical flow motion estimation. IEEE Journal of Oceanic Engineering, 1998, 23(1): 31-46. DOI:10.1109/48.659448
81
Campoy P, Correa J F, Mondragón I, Martínez C, Olivares M, Mejías L, et al. Computer vision onboard UAVs for civilian tasks. Journal of Intelligent & Robotics Systems, 2009, 54(1-3): 105-135.
82
Zhao Y M, Xie W F, Liu S N. Image-based visual servoing using improved image moments in 6-DOF robot systems. International Journal of Control, Automation and Systems, 2013, 11(3): 586-596. DOI:10.1007/s12555-012-0232-9
83
Pressigout M, Marchand E. Real-time hybrid tracking using edge and texture information. The International Journal of Robotics Research, 2007, 26(7): 689-713. DOI:10.1177/0278364907080477
84
Fomena R T, Tahri O, Chaumette F. Distance-based and orientation-based visual servoing from three points. IEEE Transactions on Robotics, 2011, 27(2): 256-267. DOI:10.1109/TRO.2011.2104431
85
Collewet C, Marchand E. Photometric visual servoing. IEEE Transactions on Robotics, 2011, 27(4): 828-834. DOI:10.1109/TRO.2011.2112593
86
Silveira G. On intensity-based 3D visual servoing. Robotics and Autonomous Systems, 2014, 62(11): 1636-1645. DOI:10.1016/j.robot.2014.03.008
87
Silveira G. On intensity-based nonmetric visual servoing. IEEE Transactions on Robotics, 2014, 30(4): 1019-1026. DOI:10.1109/TRO.2014.2315712
88
De Luca A, Oriolo G, Giordano P R. Feature depth observation for image-based visual servoing:theory and experiments. The International Journal of Robotics Research, 2008, 27(10): 1093-1116. DOI:10.1177/0278364908096706
89
Cheah C C, Liu C, Slotine J J E. Adaptive Jacobian vision based control for robots with uncertain depth information. Automatica, 2010, 46(7): 1228-1233. DOI:10.1016/j.automatica.2010.04.009
90
Xie W F, Li Z, Tu X W, Perron C. Switching control of image-based visual servoing with laser pointer in robotic manufacturing systems. IEEE Transactions on Industrial Electronics, 2009, 56(2): 520-529. DOI:10.1109/TIE.2008.2003217
91
Cherubini A, Chaumette F, Oriolo G. Visual servoing for path reaching with nonholonomic robots. Robotica, 2011, 29(7): 1037-1048. DOI:10.1017/S0263574711000221
92
Malis E, Chaumette F. Theoretical improvements in the stability analysis of a new class of model-free visual servoing methods. IEEE Transactions on Robotics and Automation, 2002, 18(2): 176-186. DOI:10.1109/TRA.2002.999646
93
Park D H, Kwon J H, Ha I J. Novel position-based visual servoing approach to robust global stability under field-of-view constraint. IEEE Transactions on Industrial Electronics, 2012, 59(12): 4735-4752. DOI:10.1109/TIE.2011.2179270
94
Xu D, Li Y F, Tan M. A general recursive linear method and unique solution pattern design for the perspective-n-point problem. Image and Vision Computing, 2008, 26(6): 740-750. DOI:10.1016/j.imavis.2007.08.008
95
Metni N, Hamel T. A UAV for bridge inspection:visual servoing control law with orientation limits. Automation in Construction, 2007, 17(1): 3-10.
96
Chesi G, Hashimoto K, Prattichizzo D, Vicino A. Keeping features in the field of view in eye-in-hand visual servoing:a switching approach. IEEE Transactions on Robotics, 2004, 20(5): 908-913. DOI:10.1109/TRO.2004.829456
97
Deng L F, Janabi-Sharifi F, Wilson W J. Hybrid motion control and planning strategies for visual servoing. IEEE Transactions on Industrial Electronics, 2005, 52(4): 1024-1040. DOI:10.1109/TIE.2005.851651
98
Mezouar Y, Chaumette F. Optimal camera trajectory with image-based control. The International Journal of Robotics Research, 2003, 22(10-11): 781-803. DOI:10.1177/027836490302210001
99
Kragic D, Christensen H I. Robust visual servoing. International Journal of Robotics Research, 2003, 22(10-11): 923-939. DOI:10.1177/027836490302210009
100
Ibarguren A, Martínez-Otzeta J M, Maurtua I. Particle filtering for industrial 6DOF visual servoing. Journal of Intelligent & Robotic Systems, 2014, 74(3-4): 689-696.
101
Chesi G, Vicino A. Visual servoing for large camera displacements. IEEE Transactions on Robotics, 2004, 20(4): 724-735. DOI:10.1109/TRO.2004.829465
102
Cowan N J, Chang D E. Geometric visual servoing. IEEE Transactions on Robotics, 2005, 21(6): 1128-1138. DOI:10.1109/TRO.2005.853491
103
Schramm F, Morel G. Ensuring visibility in calibration-free path planning for image-based visual servoing. IEEE Transactions on Robotics, 2006, 22(4): 848-854. DOI:10.1109/TRO.2006.878955
104
Wang Y, Lang H X, de Silva C W. A hybrid visual servo controller for robust grasping by wheeled mobile robots. IEEE-ASME Transactions on Mechatronics, 2010, 15(5): 757-769. DOI:10.1109/TMECH.2009.2034740
105
Gans N R, Hu G Q, Nagarajan K, Dixon W E. Keeping multiple moving targets in the field of view of a mobile camera. IEEE Transactions on Robotics, 2011, 27(4): 822-828. DOI:10.1109/TRO.2011.2158695
106
Fang Y C, Liu X, Zhang X B. Adaptive active visual servoing of nonholonomic mobile robots. IEEE Transactions on Industrial Electronics, 2012, 59(1): 486-497. DOI:10.1109/TIE.2011.2143380
107
Goncalves P J S, Mendonca L F, Sousa J M C, Pinto J R C. Uncalibrated eye-to-hand visual servoing using inverse fuzzy models. IEEE Transactions on Fuzzy Systems, 2008, 16(2): 341-353. DOI:10.1109/TFUZZ.2007.896226
108
Kim G W. Uncalibrated visual servoing through the efficient estimation of the image Jacobian for large residual. Journal of Electrical Engineering & Technology, 2013, 8(2): 385-392.
109
Piepmeier J A, Lipkin H. Uncalibrated eye-in-hand visual servoing. The International Journal of Robotics Research, 2003, 22(10-11): 805-819. DOI:10.1177/027836490302210002
110
Piepmeier J A, McMurray G V, Lipkin H. Uncalibrated dynamic visual servoing. IEEE Transactions on Robotics and Automation, 2004, 20(1): 143-147. DOI:10.1109/TRA.2003.820923
111
Bonkovic M, Hace A, Jezernik K. Population-based uncalibrated visual servoing. IEEE-ASME Transactions on Mechatronics, 2008, 13(3): 393-397. DOI:10.1109/TMECH.2008.924135
112
Shen Y T, Sun D, Liu Y H, Li K J. Asymptotic trajectory tracking of manipulators using uncalibrated visual feedback. IEEE-ASME Transactions on Mechatronics, 2003, 8(1): 87-98. DOI:10.1109/TMECH.2003.809133
113
Liu Y H, Wang H S, Wang C Y, Lam K K. Uncalibrated visual servoing of robots using a depth-independent interaction matrix. IEEE Transactions on Robotics, 2006, 22(4): 804-817. DOI:10.1109/TRO.2006.878788
114
Zhang X B, Fang Y C, Li B Q, Wang J. Visual servoing of nonholonomic mobile robots with uncalibrated camera-to-robot parameters. IEEE Transactions on Industrial Electronics, 2017, 64(1): 390-400. DOI:10.1109/TIE.2016.2598526
115
Wang H S, Liu Y H, Chen W D. Uncalibrated visual tracking control without visual velocity. IEEE Transactions on Control Systems Technology, 2010, 18(6): 1359-1370. DOI:10.1109/TCST.2010.2041457
116
Malis E. Visual servoing invariant to changes in camera-intrinsic parameters. IEEE Transactions on Robotics and Automation, 2004, 20(1): 72-81. DOI:10.1109/TRA.2003.820847
117
Kosmopoulos D I. Robust Jacobian matrix estimation for image-based visual servoing. Robotics and Computer-Integrated Manufacturing, 2011, 27(1): 82-87. DOI:10.1016/j.rcim.2010.06.013
118
Horaud R, Dornaika F, Espiau B. Visually guided object grasping. IEEE Transactions on Robotics and Automation, 1998, 14(4): 525-532. DOI:10.1109/70.704214
119
Xiao D, Ghosh B K, Xi N, Tarn T J. Sensor-based hybrid position/force control of a robot manipulator in an uncalibrated environment. IEEE Transactions on Control Systems Technology, 2000, 8(4): 635-645. DOI:10.1109/87.852909
120
Lippiello V, Siciliano B, Villani L. Position-based visual servoing in industrial multirobot cells using a hybrid camera configuration. IEEE Transactions on Robotics, 2007, 23(1): 73-86. DOI:10.1109/TRO.2006.886832
121
Tamadazte B, Piat N L F, Dembélé S. Robotic micromanipulation and microassembly using monoview and multiscale visual servoing. IEEE-ASME Transactions on Mechatronics, 2011, 16(2): 277-287. DOI:10.1109/TMECH.2010.2040900
122
Tamadazte B, Piat N L F, Marchand E. A direct visual servoing scheme for automatic nanopositioning. IEEE-ASME Transactions on Mechatronics, 2012, 17(4): 728-736. DOI:10.1109/TMECH.2011.2128878
123
Ralis S J, Vikramaditya B, Nelson B J. Micropositioning of a weakly calibrated microassembly system using coarse-to-fine visual servoing strategies. IEEE Transactions on Electronics Packaging Manufacturing, 2000, 23(2): 123-131. DOI:10.1109/6104.846935
124
Ferreira A, Cassier C, Hirai S. Automatic microassembly system assisted by vision servoing and virtual reality. IEEE-ASME Transactions on Mechatronics, 2004, 9(2): 321-333. DOI:10.1109/TMECH.2004.828655
125
Wang J P, Cho H. Micropeg and hole alignment using image moments based visual servoing method. IEEE Transactions on Industrial Electronics, 2008, 55(3): 1286-1294. DOI:10.1109/TIE.2007.911206
126
Wang L D, Mills J K, Cleghorn W L. Automatic microassembly using visual servo control. IEEE Transactions on Electronics Packaging Manufacturing, 2008, 31(4): 316-325. DOI:10.1109/TEPM.2008.926118
127
Ouyang P R, Zhang W J, Gupta M M, Zhao W. Overview of the development of a visual based automated bio-micromanipulation system. Mechatronics, 2007, 17(10): 578-588. DOI:10.1016/j.mechatronics.2007.06.002
128
Sun Y, Nelson B J. Biological cell injection using an autonomous microrobotic system. The International Journal of Robotics Research, 2002, 21(10-11): 861-868. DOI:10.1177/0278364902021010833
129
Zhang Y, Tan K K, Huang S. Vision-servo system for automated cell injection. IEEE Transactions on Industrial Electronics, 2009, 56(1): 231-238. DOI:10.1109/TIE.2008.925771
130
Sakaki K, Dechev N, Burke R D, Park E J. Development of an autonomous biological cell manipulator with single-cell electroporation and visual servoing capabilities. IEEE Transactions on Biomedical Engineering, 2009, 56(8): 2064-2074. DOI:10.1109/TBME.2009.2021577
131
Zhuang S L, Lin W Y, Gao H J, Shang X X, Li L. Visual servoed zebrafish larva heart microinjection system. IEEE Transactions on Industrial Electronics, 2017, 64(5): 3727-3736. DOI:10.1109/TIE.2017.2652380
132
Wei G Q, ARbter K, Hirzinger G. Real-time visual servoing for laparoscopic surgery. Controlling robot motion with color image segmentation. IEEE Engineering in Medicine and Biology Magazine, 1997, 16(1): 40-45. DOI:10.1109/51.566151
133
Krupa A, Gangloff J, Doignon C, de Mathelin M F, Morel G, Leroy J, et al. Autonomous 3-D positioning of surgical instruments in robotized Laparoscopic surgery using visual servoing. IEEE Transactions on Robotics and Automation, 2003, 19(5): 842-853. DOI:10.1109/TRA.2003.817086
134
Abolmaesumi P, Salcudean S E, Zhu W H, Sirouspour M R, DiMaio S P. Image-guided control of a robot for medical ultrasound. IEEE Transactions on Robotics and Automation, 2002, 18(1): 11-23. DOI:10.1109/70.988970
135
Hamel T, Mahony R. Image based visual servo control for a class of aerial robotic systems. Automatica, 2007, 43(11): 1975-1983. DOI:10.1016/j.automatica.2007.03.030
136
Huh S, Shim D H. A vision-based landing system for small unmanned aerial vehicles using an airbag. Control Engineering Practice, 2010, 18(7): 812-823. DOI:10.1016/j.conengprac.2010.05.003
137
Azinheira J R, Rives P. Image-based visual servoing for vanishing features and ground lines tracking:application to a UAV automatic landing. International Journal of Optomechatronics, 2008, 2(3): 275-295. DOI:10.1080/15599610802303314
138
Huh S, Shim D H. A vision-based automatic landing method for fixed-wing UAVs. Journal of Intelligent & Robotic Systems, 2010, 57(1-4): 217-231.
139
Le Bras F, Hamel T, Mahony R, Barat C, Thadasack J. Approach maneuvers for autonomous landing using visual servo control. IEEE Transactions on Aerospace and Electronic Systems, 2014, 50(2): 1051-1065. DOI:10.1109/TAES.2013.110780
140
Mejías L, Saripalli S, Campoy P, Sukhatme G S. Visual servoing of an autonomous helicopter in urban areas using feature tracking. Journal of Field Robotics, 2006, 23(3-4): 185-199. DOI:10.1002/(ISSN)1556-4967
141
Guenard N, Hamel T, Mahony R. A practical visual servo control for an unmanned aerial vehicle. IEEE Transactions on Robotics, 2008, 24(2): 331-340. DOI:10.1109/TRO.2008.916666
142
Bourquardez O, Mahony R, Guenard N, Chaumette F, Hamel T, Eck L. Image-based visual servo control of the translation kinematics of a quadrotor aerial vehicle. IEEE Transactions on Robotics, 2009, 25(3): 743-749. DOI:10.1109/TRO.2008.2011419
143
Xie H, Lynch A F. Input saturated visual servoing for unmanned aerial vehicles. IEEE-ASME Transactions on Mechatronics, 2017, 22(2): 952-960. DOI:10.1109/TMECH.2016.2608862
144
Mahony R, Kumar V, Corke P. Multirotor aerial vehicles:modeling, estimation, and control of quadrotor. IEEE Robotics & Automation Magazine, 2012, 19(3): 20-32.
145
Serra P, Cunha R, Hamel T, Cabecinhas D, Silvestre C. Landing of a quadrotor on a moving target using dynamic image-based visual servo control. IEEE Transactions on Robotics, 2016, 32(6): 1524-1535. DOI:10.1109/TRO.2016.2604495
146
Marchand É, Chaumette F. Virtual visual servoing:a framework for real-time augmented reality. Computer Graphics Forum, 2002, 21(3): 289-297. DOI:10.1111/cgf.2002.21.issue-3
147
Gracias N R, van der Zwaan S, Bernardino A, Santos-Victor J. Mosaic-based navigation for autonomous underwater vehicles. IEEE Journal of Oceanic Engineering, 2003, 28(4): 609-624. DOI:10.1109/JOE.2003.819156
148
Mehta S S, Burks T F. Vision-based control of robotic manipulator for citrus harvesting. Computers and Electronics in Agriculture, 2014, 102: 146-158. DOI:10.1016/j.compag.2014.01.003
149
Mehta S S, Ton C, Kan Z, Curtis J W. Vision-based navigation and guidance of a sensorless missile. Journal of the Franklin Institute, 2015, 352(12): 5569-5598. DOI:10.1016/j.jfranklin.2015.09.010
150
Cai J, Huang P F, Zhang B, Wang D K. A TSR visual servoing system based on a novel dynamic template matching method. Sensors, 2015, 15(12): 32152-32167. DOI:10.3390/s151229884
151
Wang H S, Yang B H, Liu Y T, Chen W D, Liang X W, Pfeifer R. Visual servoing of soft robot manipulator in constrained environments with an adaptive controller. IEEE-ASME Transactions on Mechatronics, 2017, 22(1): 41-50. DOI:10.1109/TMECH.2016.2613410
152
Pomares J, Torres F. Movement-flow-based visual servoing and force control fusion for manipulation tasks in unstructured environments. IEEE Transactions on Systems, Man, and Cybernetics, Part C-Applications and Reviews, 2005, 35(1): 4-15. DOI:10.1109/TSMCC.2004.840045
153
Chesi G, Hung Y S. Global path-planning for constrained and optimal visual servoing. IEEE Transactions on Robotics, 2007, 23(5): 1050-1060. DOI:10.1109/TRO.2007.903817
154
Shen T T, Chesi G. Visual servoing path planning for cameras obeying the unified model. Advanced Robotics, 2012, 26(8-9): 843-860.
155
Gracia L, Perez-Vidal C. A new control scheme for visual servoing. International Journal of Control, Automation and Systems, 2009, 7(5): 764-776. DOI:10.1007/s12555-009-0509-9
156
Fontanelli D, Danesi A, Belo F A W, Salaris P, Bicchi A. Visual servoing in the large. The International Journal of Robotics Research, 2009, 28(6): 802-814. DOI:10.1177/0278364908097660
157
Kazemi M, Gupta K K, Mehrandezh M. Randomized kinodynamic planning for robust visual servoing. IEEE Transactions on Robotics, 2013, 29(5): 1197-1211. DOI:10.1109/TRO.2013.2264865
158
Tahri O, Mezouar Y. On visual servoing based on efficient second order minimization. Robotics and Autonomous Systems, 2010, 58(5): 712-719. DOI:10.1016/j.robot.2009.11.003
159
Hajiloo A, Keshmiri M, Xie W F, Wang T T. Robust online model predictive control for a constrained image-based visual servoing. IEEE Transactions on Industrial Electronics, 2016, 63(4): 2242-2250.
160
Gao J, Proctor A A, Shi Y, Bradley C. Hierarchical model predictive image-based visual servoing of underwater vehicles with adaptive neural network dynamic control. IEEE Transactions on Cybernetics, 2016, 46(10): 2323-2334. DOI:10.1109/TCYB.2015.2475376
161
Zhao Q J, Sun Z Q, Sun F C, Zhu J H. Appearance-based robot visual servo via a wavelet neural network. International Journal of Control Automation and Systems, 2008, 6(4): 607-612.
162
Miljković Z, Mitić M, Lazarević M, Babić B. Neural network reinforcement learning for visual control of robot manipulators. Expert Systems with Applications, 2013, 40(5): 1721-1736. DOI:10.1016/j.eswa.2012.09.010
163
Sadeghzadeh M, Calvert D, Abdullah H A. Self-learning visual servoing of robot manipulator using explanation-based fuzzy neural networks and Q-learning. Journal of Intelligent & Robotic Systems, 2015, 78(1): 83-104.
164
Shi H B, Li X S, Hwang K S, Pan W, Xu G J. Decoupled visual servoing with fuzzy Q-learning. IEEE Transactions on Industrial Informatics, 2018, 14(1): 241-252. DOI:10.1109/TII.2016.2617464
165
Zhao Y M, Xie W F, Liu S N, Wang T T. Neural network-based Image moments for robotic visual servoing. Journal of Intelligent & Robotic Systems, 2015, 78(2): 239-256.
166
Jiang P, Bamforth L C A, Feng Z R, Baruch J E F, Chen Y Q. Indirect iterative learning control for a discrete visual servo without a camera-robot model. IEEE Transactions on Systems, Man, and Cybernetics, Part B-Cybernetics, 2007, 37(4): 863-876. DOI:10.1109/TSMCB.2007.895355
167
Mansard N, Chaumette F. Task sequencing for high-level sensor-based control. IEEE Transactions on Robotics, 2007, 23(1): 60-72. DOI:10.1109/TRO.2006.889487
168
Larouche B P, Zhu Z H. Autonomous robotic capture of non-cooperative target using visual servoing and motion predictive control. Autonomous Robots, 2014, 37(2): 157-167. DOI:10.1007/s10514-014-9383-2
169
Tsai C Y, Wong C C, Yu C J, Liu C C, Liu T Y. A hybrid switched reactive-based visual servo control of 5-DOF robot manipulators for pick-and-place tasks. IEEE Systems Journal, 2015, 9(1): 119-130. DOI:10.1109/JSYST.2014.2358876
170
Wu H Y, Lou L, Chen C C, Hirche S, Kuhnlenz K. Cloud-based networked visual servo control. IEEE Transactions on Industrial Electronics, 2013, 60(2): 554-566. DOI:10.1109/TIE.2012.2186775