2. 暨南大学机器人智能技术研究院, 广东 广州 510632;
3. 暨南大学智能科学与工程学院, 广东 珠海 519070
2. Robotics Research Institute, Jinan University, Guangzhou 510632, China;
3. College of Intelligent Systems Science and Engineering, Jinan University, Zhuhai 519070, China
随着工业现代化的快速发展,大量的工业机器人被应用到分拣、装配和循迹等生产制造任务中,其中最突出的问题之一就是Bin-Picking问题。对于人类来说,从料箱中拾取随机堆叠的物体是一件很简单的事,但是实现其自动化却非常复杂,因为除了要识别出对象的位置与姿态外,还必须确保能够找到无碰撞的路径来安全地抓取对象[1]。
一个机器人抓取系统包括以下几个子系统:抓取检测系统、抓取规划系统和控制系统,其中抓取检测系统是最重要的部分[2]。
早期的机器人抓取研究多侧重于如何稳定可靠地把单个规则物体抓起来[3-5],远未达到工业应用的要求。2D机器视觉系统成熟后,通过2D相机识别零件的位置与方向,可以实现平面摆放零件的抓取。但遇到散乱堆叠的零件时,2D视觉往往无能为力。随着3维传感器技术的发展和成本的降低,机器人抓取方面的研究开始面向随机堆叠的复杂场景,在这种场景下,机器人抓取方法可以分为3类:基于可抓取部位检测的方法、基于机器学习的方法和基于位姿估计的方法。
基于可抓取部位检测的物体抓取方法只需掌握抓取器件的先验知识而无需掌握抓取对象的先验知识,通过检测点云或深度数据中的可抓取部位的特征能筛选出抓取姿态。Domae等[6]利用抓取器件的掩模图和横截图进行卷积计算得到可抓取区域和碰撞区域,并通过相与运算得到安全的抓取区域。Buchholz等[7]把深度图中的可抓取区域看作该深度图的特征区域,根据抓取器件的特征设计滤波器并对图像进行滤波,以此检测可抓取的区域。苏杰等[8]利用简化的抓取器件的几何形状约束,结合力封闭约束和力平衡约束筛选出抓取姿态。上述方法可以对未知物体进行抓取,但对噪声较为敏感,因此在实际工业场景中容易出现抓取错误。
随着近年来机器学习(特别是深度学习)的快速发展,基于机器学习的机器人抓取方法成为研究热点。Lenz等[9]先通过一个轻量级深度网络检测候选抓取姿态,再通过一个大型深度网络筛选出最佳抓取姿态;Redmon等[10]则利用CNN(卷积神经网络)进行抓取点检查。但以上方法都只能完成单个物体的抓取。Harada等[11]利用SVM(支持向量机)加随机森林的方法实现了随机堆叠零件的抓取。Mahler等[12-13]利用MV-CNN(多视角卷积神经网络)生成带抓取点的数据集,然后输入到设计好的GQ-CNN(抓取质量卷积神经网络)中求取最佳的抓取姿态。Asif等[14]设计了一个抓取部位检测网络GraspNet,其中包括一个编码网络和一个解码网络,能降低计算资源的消耗。Zeng[15]等先采用一个FCRN(全卷积残差网络)预测抓取的可靠性,再利用Two-Stream-CNN(双流卷积神经网络)进行跨域图像匹配从而识别未知对象。文[16-17]提出了基于自监督深度强化学习的VPG(visual pushing and grasping)算法,实现了大量未知堆叠物体的抓取,但其训练需要大量的计算资源。NVIDIA(英伟达)公司研究员[18]提出了6-DOF-GraspNet,该网络通过“评估—优化”模型使机器人可以抓取任意物体。上述基于机器学习的方法虽然在未知物体的抓取上有不俗的表现,但其研究的抓取对象多为日常生活用品而非工业零件。与生活上的物品相比,工业零件主要存在2个特点:1) 工业零件往往具有相同的颜色;2) 工业零件由各种规则形状构成。这些特点大大提高了模型的训练难度、降低了模型的泛化性能,同时,以上方法的数据标记具有工作量大、计算资源消耗高等缺点,因此难以应用到实际工业生产中。
基于位姿估计的物体抓取方法需要预先在物体上设置抓取点,然后计算待抓取物体的6自由度位姿,并根据抓取点与物体的变换关系间接计算出候选抓取姿态,最后通过碰撞检测、合理性检测等过程筛选出最佳抓取姿态,因此对抓取对象和抓取器件均要求有先验知识。近几年国内外的3D视觉公司已经纷纷推出商业化的Bin-Picking系统,例如荷兰ESPS公司的Pick-It 3D系统、斯洛伐克Photoneo公司的Photoneo-3D系统、丹麦SCAPE公司的Scape-Tech系统等,以及国内的梅卡曼德、埃尔森智能科技等致力于3D视觉的独角兽企业推出的成熟的解决方案,表 1为以上各种方案的对比。
在工业零件的抓取问题上,大量实际应用检验的产品均主要采用了基于位姿估计的抓取方法,可见在目前基于位姿估计的方法依旧是最稳定可靠的零件抓取策略。该方法的第一个关键问题是物体的位姿估计,在该问题上国内外的研究学者展开了大量的研究。目前常用的物体位姿估计方法有基于局部或全局特征匹配的方法和基于位姿投票的方法等,详见文[19],其中基于点对特征(point pair feature,PPF)[20-21]的方法因其抗噪能力强、鲁棒性高等特点而被广泛应用。而宋薇等[22]则把Canny边缘处理和按倾角分层的Chamfer距离映射相结合,并采用加入了爬山法局部优化的遗传算法搜索最优匹配位姿,实现了基于单目视觉的工业零件抓取,但只适用于零件简单摆放的情况,难以应用到复杂的工业场景。
基于位姿估计的物体抓取方法的另一个关键问题是对候选抓取点的设置和筛选,但与物体位姿估计研究相比,该问题的研究进展相对缓慢。Spenrath等[23]对3维传感器建立视点射线模型,把整个扫描空间分为安全区域、碰撞区域和未知区域,进而对抓取点进行分类。Buchholz等[24]提出了KGF(key grasp frame)概念,使抓取点可以在1~2个自由度上滑动。Spenrath等[25]针对候选抓取点数量太多、逐个计算效率太低的问题,以抓取点计算顺序为节点构建了一棵搜索树,并对每一种节点定义对应的评估函数进行启发式搜索,提高了最佳抓取点的计算效率;同时从零件高度与位置的相对关系以及抓取方向与箱体中心的相对关系来优化评估函数[26],并采用FANN(快速人工神经网络)训练关键节点的评估函数以指导节点展开[27],使得搜索效果得到了提高。虽然上述方法能够筛选出无碰撞风险的抓取姿态,但无论是表 1中所列的商业化方案还是上述方法,所设置的抓取点均为离散的固定点,这种抓取点设置方式不仅忽略了零件上大量的可抓取点,导致抓取成功率降低,还需要对候选抓取姿态逐个评估,导致其效率低下。为解决上述问题,本文提出了一种基于抓取簇和碰撞体素的抓取姿态检测算法,面向的抓取对象为工业生产过程中常见的散乱堆叠的零件,由于本文研究重点在抓取点的设置和筛选问题上,零件的位姿估计将采用文[28]的方法完成,本文不再详细讨论。图 1为本文算法的原理图。
总结来说,本文的主要研究内容和贡献如下:
1) 提出抓取簇的概念,采用包含连续抓取点的抓取区域替代传统方法中的离散固定抓取点,提高了抓取姿态的合理性和成功率,根据抓取簇的几何关系可直接计算出最佳抓取姿态,无需对候选抓取姿态进行逐个评估,提高了计算效率;
2) 提出一种体素化的碰撞模型,利用体素化思想对抓取场景进行合理的碰撞区域划分,通过简化抓取路径完成快速的碰撞检测,提高了抓取的安全性和计算效率;
3) 利用Unity3D软件对多种常见的工业零件生成仿真数据,进行抓取姿态检测的仿真实验,并与传统方法进行比较,本文算法表现出了较好的性能;
4) 搭建完整的Bin-Picking系统,对上述工业零件进行实际抓取实验,并与传统方法和基于深度强化学习的VPG[17]算法进行比较,对比可知,本文算法的抓取平均成功率达92.2%,料箱平均清空率达87.2%,均优于上述2种方法,且抓取过程未发生碰撞,证明该算法可以满足工业实际生产要求。
2 抓取姿态描述(The description of grasping pose)如图 2所示,抓取姿态定义为机器人在执行抓取动作时,抓取器件坐标系{
$ \begin{equation} {{{\mathit{\boldsymbol{T}}}}}_{G}^{W} ={{{\mathit{\boldsymbol{T}}}}}_{O}^{W}{{{\mathit{\boldsymbol{T}}}}}_{G}^{O} \end{equation} $ | (1) |
其中
为方便讨论,现以参考坐标系{
变换①:抓取器件坐标系
变换②:绕抓取器件自身坐标系
变换①确定了在参考坐标系{
$ \begin{equation} {{{\mathit{\boldsymbol{T}}}}}_{G}^{{R}^{\prime}} = \begin{bmatrix} {{{{\mathit{\boldsymbol{r}}}}}_{G}^{R}} & {{{{\mathit{\boldsymbol{T}}}}}_{G}^{R}} \\ {{{{\mathit{\boldsymbol{0}}}}}_{1\times 3}} & 1 \\ \end{bmatrix} \end{equation} $ | (2) |
则
$ \begin{equation} \begin{cases} {{{\mathit{\boldsymbol{p}}}}_{{\rm g}}^{R} = \left({{{{\mathit{\boldsymbol{T}}}}}_{G}^{R}} \right)^{{\rm T}}}\\ {{{{\mathit{\boldsymbol{v}}}}}_{{\rm g}}^{R} ={{{\mathit{\boldsymbol{r}}}}}_{G}^{R}{{{\mathit{\boldsymbol{U}}}}}_{z}} \\ \end{cases} \end{equation} $ | (3) |
其中
变换②由抓取器件绕中心轴旋转的角度
$ \begin{align} \left\{\left({{{\mathit{\boldsymbol{T}}}}}_{G}^{{R}^{\prime \prime}} \right)_{i} \right\}\!=\!\left\{\begin{bmatrix} {{{{\mathit{\boldsymbol{r}}}}}_{z} (\gamma)} \!\!&\!\! {{{{\mathit{\boldsymbol{0}}}}}_{3\times 1}} \\ {{{{\mathit{\boldsymbol{0}}}}}_{1\times 3}} \!\!&\!\! 1 \end{bmatrix}\right\}, \; \gamma\!=\!\!\begin{cases} A_{{\rm i}} \!\!+\!\!nA_{{\rm r}}, \!\!&\!\! A_{{\rm r}} \!\!\ne\!\! 0\\ {\rm R}, \!\!&\!\!A_{{\rm r}} \!\!=\!\!0 \end{cases} \end{align} $ | (4) |
使得
$ \begin{equation} {{{\mathit{\boldsymbol{T}}}}}_{G}^{R} ={{{\mathit{\boldsymbol{T}}}}}_{G}^{{R}^{\prime}}{{{\mathit{\boldsymbol{T}}}}}_{G}^{{R}^{\prime \prime}} \end{equation} $ | (5) |
为简化计算,把抓取路径定义为抓取方向的反方向
$ \begin{equation} {{{\mathit{\boldsymbol{T}}}}}_{G_{{\rm h}}} ^{G} =\begin{bmatrix} {{{{\mathit{\boldsymbol{I}}}}}_{3\times 3}} & \left(0, \; 0, \; \left| {\overrightarrow {p_{{\rm h}} p_{{\rm g}}}} \right|\right)^{{\rm T}} \\ {{{{\mathit{\boldsymbol{O}}}}}_{1\times 3}} & 1 \\ \end{bmatrix} \end{equation} $ | (6) |
基于上述分析,抓取姿态的检测问题最终转化为对
传统的抓取姿态设置方法是以零件坐标系
如图 5所示,在零件坐标系
$ \begin{equation} \left\{{ \left({{{\mathit{\boldsymbol{T}}}}_{G}^{O}} \right)_{i}} \right\}=\left\{ {{{{\mathit{\boldsymbol{T}}}}}_{C}^{O} {{\mathit{\boldsymbol{T}}}}_{G}^{C} \left| {{{\mathit{\boldsymbol{T}}}}_{G}^{C} \in} \right.\left\{{ \left({{{\mathit{\boldsymbol{T}}}}_{G}^{C}} \right)_{i}} \right\}} \right\} \end{equation} $ | (7) |
使得
把上述基于变换
由抓取簇定义可知,变换规则
$ \begin{equation} f_{{\rm t}}: \left\{{ \left({{{\mathit{\boldsymbol{T}}}}_{G}^{C}} \right)_{i}} \right\}\to \left\{{G_{i} \left({p_{{\rm g}}^{C}, {{{\mathit{\boldsymbol{v}}}}}_{{\rm g}}^{C}} \right)} \right\} \end{equation} $ | (8) |
其中集合
设
$ \begin{equation} f_{{\rm p}}: \left\{{ \left({p_{{\rm c}}^{C}} \right)_{i}} \right\}\to \left\{{ \left({{{\mathit{\boldsymbol{T}}}}_{G}^{C}} \right)_{i}} \right\} \end{equation} $ | (9) |
其中条件
联立
$ \begin{equation} f_{{\rm g}}: \left\{{ \left({p_{{\rm c}}^{C}} \right)_{i}} \right\}\to \left\{{G_{i} \left({p_{{\rm g}}^{C}, {{{\mathit{\boldsymbol{v}}}}}_{{\rm g}}^{C}} \right)} \right\} \end{equation} $ | (10) |
有效的抓取姿态必须是无碰撞风险的,即抓取器件在其抓取路径上不能与其他零件及料箱发生碰撞,为实现对抓取路径的快速碰撞检测,本文利用3维体素[29]的规则化特点,提出体素化的碰撞模型。
设料箱底部中心点为料箱坐标系{
s1) 若体素内包含零件点云(目标零件除外)或料箱边界,则把该体素标记为碰撞体素,否则标记为安全体素;
s2) 对于每个安全体素,检测其所有邻近体素是否存在碰撞体素,如存在则把该安全体素更改为风险体素。
如图 8所示,在标记后的碰撞体素空间中,计算抓取路径
对于抓取簇
记
算法1:计算抓取簇中的最佳抓取姿态
输入:碰撞体素空间的最上层体素集合
输出:最佳抓取姿态
For
If
/*根据映射
End For
For
/*计算抓取路径经过的体素集合*/
For
/*检查是否包含碰撞体素或风险体素*/
If
Break
End If
End For
/*无碰撞体素或风险体素,则输出
If
根据式(6) 计算
Return
End If
End For
Return无有效的抓取姿态
$ \begin{equation} \left| {\overrightarrow {p_{{\rm h}} p_{{\rm g}}}} \right|={\left( {z_{{\rm g}}^{B} -L_{{\rm h}}} \right)}/{w_{{\rm g}}^{B}} \end{equation} $ | (11) |
基于上述讨论,在算法1中描述了计算最佳抓取姿态的方法。
4 实验结果及分析(Experimental result and analysis)为了评估算法的性能,本文分别在仿真环境和真实环境下对抓取姿态检测算法进行实验。计算机配置为Intel
同时,为验证算法的通用性,将采用吸盘和气动夹具2种抓取器件分别进行抓取实验,其尺寸及CAD模型如图 10所示。考虑抓取对象的几何形状,采用吸盘方式抓取的零件为三通管、球形把手和锥形脚垫,采用气动夹具抓取的零件为三通管和发动机连杆。
仿真实验的数据集主要通过Unity3D软件的物理仿真功能来生成。Unity3D软件内置的物理引擎可模拟物体自由落体运动和碰撞,先在虚拟空间中导入料箱模型,然后让零件模型以刚体形式从料箱上方位置随机落下,并记录所有落在箱体内部的零件的位姿,最后在料箱上方设置虚拟深度相机,从而得到该堆叠零件的场景点云。
采用上述方法针对4种实验零件各生成200个场景点云。为了单独验证本文算法的有效性,需要排除零件位姿识别结果对实验的影响,因此设计2组实验:第1组实验将从Unity3D软件中直接获取零件的真实位姿,并使用本文提出的算法按零件的高低顺序检测抓取姿态;第2组实验先使用文[28]的方法识别出目标零件姿态,再使用本文算法检测抓取姿态。若成功计算出最佳抓取姿态且其抓取路径没有与箱体或其他零件发生碰撞,则可视为一次成功的检测。仿真实验的评价指标主要包括抓取姿态的检测成功率、抓取倾斜度和算法运行时间。检测成功率定义为
$ \begin{equation} R_{{\rm s}} =\frac{n_{{\rm s}}} {N_{{\rm s}}} \times 100\% \end{equation} $ | (12) |
其中
另外,与基于离散固定抓取点的传统方法进行对比,以验证本文提出的基于抓取簇的方法是否能明显提升抓取姿态的计算性能。该传统方法的设计内容主要包括抓取点设置和最佳抓取点计算:
(1) 抓取点设置:按平移步长5 mm、旋转角度步长30
(2) 最佳抓取点计算:得到目标零件位姿后,对所有设置在目标零件上的抓取点所对应的抓取路径进行基于方向包围盒(oriented bounding box,OBB)的碰撞检测,对于通过碰撞检测的抓取点,计算其对应抓取方向与
第1组和第2组的实验结果分别如表 4和表 5所示,图 11展示了部分抓取姿态的检测结果。
第1组实验中,由于零件位姿均为真实位姿,因此采用本文方法进行抓取姿态检测的平均成功率能达到94%,且所有零件的检测成功率均超过85%,比基于离散固定抓取点的传统方法提高了10% 以上。另外,采用本文方法的抓取倾斜度均在20
第2组实验中,由于存在识别错误的零件位姿,因此抓取姿态检测的成功率有一定程度的降低,说明本文提出的抓取姿态检测算法在一定程度上依赖零件位姿识别的结果,可见提高零件位姿识别的准确率是提高抓取姿态检测成功率的关键之一。
4.2 实际抓取实验机器人从料箱中分拣散乱堆叠的零件问题称为Bin-Picking问题。以本文提出的抓取姿态检测算法为核心,搭建了一套完整的Bin-Picking系统,并在该系统上完成零件的实际抓取实验。
4.2.1 Bin-Picking系统平台搭建的Bin-Picking系统平台如图 12所示。其中1为固定于环境中的3D相机,采用投影仪加单相机的面结构光成像方案,其中投影仪为TI公司的DLP4500,搭配Point Gray工业相机;2~5分别为计安川机器人、Motocom控制柜、吸盘/气动夹具和装有堆叠零件的料箱;6为基于Qt库和C
在搭建的Bin-Picking系统平台上进行零件的实际抓取实验,根据4种零件的5种抓取方式进行分组,每组每次取20个相同零件随机堆放在料箱中,机器人将尽可能地把料箱中的全部零件分拣到另一个料箱中,当全部零件分拣完成或已经无法检测出可抓取姿态时,记为1次分拣结束,重复分拣10次,统计抓取结果。实际抓取实验的评价指标主要包括抓取成功率、料箱平均清空率和抓取周期。定义抓取成功率为
$ \begin{equation} R_{{\rm g}} =\frac{n_{{\rm g}}} {N_{{\rm g}}} \times 100\% \end{equation} $ | (13) |
其中
由于位于料箱边角处的零件更容易被遮挡或在抓取过程更容易发生碰撞,在实际工业生产中,每一箱来料的零件通常都难以全部分拣完成,为分析本文算法对料箱边角零件的处理能力,定义料箱清空率:
$ \begin{equation} R_{{\rm c}} =\frac{\sum\limits_{i=1}^m {\frac{n_{i}} {N_{i}} \times 100\%} }{m} \end{equation} $ | (14) |
其中
机器人的运动速度设置为16 mm/s。定义系统响应时间为
$ \begin{equation} T=T_{2} +\max (T_{1}, T_{3}) \end{equation} $ | (15) |
在Bin-Picking系统平台上进行实际抓取实验,结果如表 6所示,图 13为部分抓取实验中识别到的抓取姿态及其对应的机器人实际抓取过程。
从表 6可以知道,实际抓取的平均成功率达92.2%,使用吸盘方式抓取的成功率均超过95%,使用气动夹具方式抓取的成功率均在85% 左右,与仿真实验结果相符,进一步证明了本文算法的有效性和通用性。料箱的平均清空率能达到87.2%,也进一步证明本文算法在一定程度上能解决边角零件的抓取问题。抓取的平均周期在11 s左右,满足实际生产的时间节拍要求。另外,在实验的整个抓取过程中都没有发生碰撞,证明了本文算法能够保证抓取的安全性。
经统计,在实验中造成抓取失败或检测不到抓取姿态的原因主要有:1) 受限于3D相机性能,部分零件因表面光滑或反光导致获取的场景点云质量较差,影响了零件位姿识别的效果;2) 部分零件可抓取部位较少,难以计算出安全的抓取姿态;3) 部分零件体积较小,因此这部分位于料箱边角处的零件难以计算出安全的抓取姿态;4) 部分零件因表面光滑导致在抓取过程中发生了滑动。
从实际抓取实验的结果来看,以本文算法为核心搭建的Bin-Picking系统能够快速、准确、安全地完成散乱堆叠零件的抓取分拣任务,可满足实际工业应用的要求。
4.2.4 与其他抓取方法对比为比较本文算法和目前流行的基于深度学习的抓取方法在实际应用上的性能,本文还分别测试了传统方法和文[17]提出的基于自监督深度强化学习的VPG算法在面向工业零件时的实际抓取表现,由于VPG算法仅支持夹具抓取方式,本次实验将只选取三通管和发动机连杆作为抓取对象,分别在表 7和表 8中展示了这2种方法与本文方法的抓取对比结果。由表 7和表 8可知,VPG算法在面向工业零件(颜色单一、形状规则的抓取对象)时表现不及传统方法和本文方法,一定程度上说明了在目前研究阶段,基于位姿估计的抓取策略在面向工业零件的抓取问题上更能满足实际工业生产的要求。另外,本文算法在抓取成功率、料箱清空率和抓取效率上均优于VPG算法和传统方法,进一步验证了本文算法的实用性。
针对工业生产过程中随机堆叠零件的分拣问题,本文提出一种基于抓取簇和碰撞体素的抓取姿态检测算法。提出的抓取簇解决了传统方法中因采用离散固定抓取点而导致可抓取点丢失、筛选效率低等问题,提高了抓取成功率和计算效率。提出的体素化碰撞模型实现了抓取路径的快速碰撞检测,保证了抓取算法的安全性。实验表明,在面向工业零件的场景下,本文算法的性能优于目前流行的深度学习方法,以其为核心搭建的Bin-Picking系统对于常见的工业零件能够快速、准确地检测出安全的抓取姿态并完成分拣,零件抓取的平均成功率达92.2%,料箱的平均清空率达87.2%,且检测时间不到20 ms,可应用到实际工业生产中。
在未来的工作中,将对体素化的碰撞模型进行改进,如结合抓取路径方向进一步细分化体素等,使其更适应大尺寸的抓取器件,提高抓取算法的适用性和鲁棒性。同时,为了进一步提高抓取姿态检测的成功率,零件位姿识别算法有待进行进一步研究。
[1] |
Buchholz D. Bin-picking: New approaches for a classical problem[M]//Studies in Systems, Decision and Control, Vol. 44. Berlin, Germany: Springer, 2016.
|
[2] |
Du G G, Wang K, Lian S G, et al. Vision-based robotic grasping from object localization, object pose estimation to grasp estimation for parallel grippers: A review[J]. Artificial Intelligence Review, 2021, 54: 1677-1734. |
[3] |
Rohrdanz F, Wahl F M. Generating and evaluating regrasp operations[C]//IEEE International Conference on Robotics and Automation. Piscataway, USA: IEEE, 1997: 2013-2018.
|
[4] |
Borst C, Fischer M, Hirzinger G. A fast and robust grasp planner for arbitrary 3D objects[C]//IEEE International Conference on Robotics and Automation. Piscataway, USA: IEEE, 1999: 1890-1896.
|
[5] |
Miller A T, Knoop S, Christensen H I, et al. Automatic grasp planning using shape primitives[C]//IEEE International Conference on Robotics and Automation. Piscataway, USA: IEEE, 2003: 1824-1829.
|
[6] |
Domae Y, Okuda H, Taguchi Y, et al. Fast graspability evaluation on single depth maps for bin picking with general grippers[C]//IEEE International Conference on Robotics and Automation. Piscataway, USA: IEEE, 2014: 1997-2004.
|
[7] |
Buchholz D, Kubus D, Weidauer I, et al. Combining visual and inertial features for efficient grasping and bin-picking[C]//IEEE International Conference on Robotics and Automation. Piscataway, USA: IEEE, 2014: 875-882.
|
[8] |
苏杰, 张云洲, 房立金, 等. 基于多重几何约束的未知物体抓取位姿估计[J]. 机器人, 2020, 42(2): 129-138. Su J, Zhang Y Z, Fang L J, et al. Estimation of the grasping pose of unkonwn objects based on multiple geometric constraints[J]. Robot, 2020, 42(2): 129-138. |
[9] |
Lenz I, Lee H, Saxena A. Deep learning for detecting robotic grasps[J]. International Journal of Robotics Research, 2015, 34(4-5): 705-724. DOI:10.1177/0278364914549607 |
[10] |
Redmon J, Angelova A. Real-time grasp detection using convolutional neural networks[C]//IEEE International Conference on Robotics and Automation. Piscataway, USA: IEEE, 2015: 1316-1322.
|
[11] |
Harada K, Wan W W, Tsuji T, et al. Initial experiments on learning-based randomized bin-picking allowing finger contact with neighboring objects[C]//IEEE International Conference on Automation Science and Engineering. Piscataway, USA: IEEE, 2016: 1196-1202.
|
[12] |
Mahler J, Pokorny F T, Hou B, et al. Dex-Net 1.0: A cloudbased network of 3D objects for robust grasp planning using a multi-armed bandit model with correlated rewards[C]//IEEE International Conference on Robotics and Automation. Piscataway, USA: IEEE, 2016: 1957-1964.
|
[13] |
Mahler J, Liang J, Niyaz S, et al. Dex-Net 2.0: Deep learning to plan robust grasps with synthetic point clouds and analytic grasp metrics[C/OL]//Robotics: Science and Systems. (2017-08-08)[2020-12-09]. https://doi.org/10.15607/RSS.2017.XIII.058.
|
[14] |
Asif U, Tang J B, Harrer S. GraspNet: An efficient convolutional neural network for real-time grasp detection for low-powered devices[C]//Twenty-Seventh International Joint Conference on Artificial Intelligence. London, England: AAAI Press, 2018: 4875-4882.
|
[15] |
Zeng A, Song S R, Yu K T, et al. Robotic pick-and-place of no-vel objects in clutter with multi-affordance grasping and cross-domain image matching[C]//IEEE International Conference on Robotics and Automation. Piscataway, USA: IEEE, 2018: 3750-3757.
|
[16] |
Kalashnikov D, Irpan A, Pastor P, et al. QT-Opt: Scalable deep reinforcement learning for vision-based robotic manipulation[DB/OL]. (2018-11-28)[2020-12-09]. https://arxiv.org/abs/1806.10293.
|
[17] |
Zheng A, Song S R, Welker S, et al. Learning synergies between pushing and grasping with self-supervised deep reinforcement learning[C]//IEEE/RSJ International Conference on Intelligent Robots and Systems. Piscataway, USA: IEEE, 2018: 4238-4245.
|
[18] |
Mousavian A, Eppner C, Fox D. 6-DoF GraspNet: Variational grasp generation for object manipulation[C]//IEEE/CVF International Conference on Computer Vision. Piscataway, USA: IEEE, 2019: 2901-2910.
|
[19] |
Guo Y L, Bennamoun M, Sohel F, et al. A comprehensive performance evaluation of 3D local feature descriptors[J]. International Journal of Computer Vision, 2016, 116: 66-89. DOI:10.1007/s11263-015-0824-y |
[20] |
Drost B, Ulrich M, Navab N, et al. Model globally, match locally: Efficient and robust 3D object recognition[C]//IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Piscataway, USA: IEEE, 2010: 998-1005.
|
[21] |
Kiforenko L, Drost B, Tombari F, et al. A performance evaluation of point pair features[J]. Computer Vision and Image Understanding, 2017, 166: 66-80. |
[22] |
宋薇, 仇楠楠, 沈林勇, 等. 面向工业零件的机器人单目立体匹配与抓取[J]. 机器人, 2018, 40(6): 950-957. Song W, Qiu N N, Shen L Y, et al. The monocular stereo matching and grasping of robot for industrial parts[J]. Robot, 2018, 40(6): 950-957. |
[23] |
Spenrath F, Spiller A, Verl A. Gripping point determination and collision prevention in a bin-picking application[C]//7th German Conference on Robotics. Berlin, Germany: VDE, 2012.
|
[24] |
Buchholz D, Futterlieb M, Winkelbach S, et al. Efficient binpicking and grasp planning based on depth data[C]//IEEE International Conference on Robotics and Automation. Piscataway, USA: IEEE, 2013: 3245-3250.
|
[25] |
Spenrath F, Pott A. Gripping point determination for bin picking using heuristic search[J]. Procedia CIRP, 2017, 62: 606-611. DOI:10.1016/j.procir.2016.06.015 |
[26] |
Spenrath F, Pott A. Statistical analysis of influencing factors for heuristic grip determination in random bin picking[C]//IEEE International Conference on Advanced Intelligent Mechatronics. Piscataway, USA: IEEE, 2017: 868-873.
|
[27] |
Spenrath F, Pott A. Using neural networks for heuristic grasp planning in random bin picking[C]//IEEE 14th International Conference on Automation Science and Engineering. Piscataway, USA: IEEE, 2018: 258-263.
|
[28] |
Li D P, Wang H Y, Liu N, et al. 3D object recognition and pose estimation from point cloud using stably observed point pair feature[J]. IEEE Access, 2020, 8: 44335-44345. |
[29] |
Kaufman A, Cohen D, Yagel R. Volume graphics[J]. Computer, 1993, 26(7): 51-64. |