[发明专利]一种基于端对端网络的机器人视觉推理抓取方法在审
| 申请号: | 201910093952.5 | 申请日: | 2019-01-30 |
| 公开(公告)号: | CN109919151A | 公开(公告)日: | 2019-06-21 |
| 发明(设计)人: | 兰旭光;张翰博;周欣文;田智强;郑南宁 | 申请(专利权)人: | 西安交通大学 |
| 主分类号: | G06K9/32 | 分类号: | G06K9/32;G06K9/46;G06N3/04;G06N3/08 |
| 代理公司: | 西安通大专利代理有限责任公司 61200 | 代理人: | 徐文权 |
| 地址: | 710049 *** | 国省代码: | 陕西;61 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 抓取 推理 机器人视觉 视觉 卷积神经网络 端对端网络 感兴趣区域 场景 部位检测 前向传播 深度特征 物体检测 次卷积 端对端 关系树 鲁棒性 准确率 检测 决策 网络 学习 图片 | ||
1.一种基于端对端网络的机器人视觉推理抓取方法,其特征在于,包括以下步骤:
步骤一:通过RGB图像传感器获取当前包含目标物体的场景图像;
步骤二:通过深度卷积网络算法,提取场景图像的图片特征;
步骤三:通过感兴趣区域提取网络,获取场景图像的感兴趣区域;
步骤四:基于感知网络,通过物体检测器和抓取检测器,获取当前场景中所有目标物体的位置和对应的抓取部位;
步骤五:以步骤三的物体检测结果的感兴趣区域为基础,完成当前场景操作关系树的构建过程;
步骤六:根据物体检测和抓取检测结果,结合场景操作关系树,规划抓取顺序,并实施抓取。
2.根据权利要求1所述的基于端对端网络的机器人视觉推理抓取方法,其特征在于:步骤二具体过程如下:
使用在视觉操作关系检测数据集上训练获取的深度卷积网络算法,并以RGB图像为输入,进行网络的前向传播过程,通过多层卷积和五层池化,以第五卷积阶段的输出C5作为最终的图像特征。
3.根据权利要求2所述的基于端对端网络的机器人视觉推理抓取方法,其特征在于:步骤三具体过程如下:
以第五卷积阶段的输出C5作为RPN的输入,通过卷积操作,获取感兴趣区域候选项,包括定位和置信度;通过非最大值抑制技术合并重合度较大的感兴趣区域候选项;在剩余所得的所有候选项中,选取置信度较高的感兴趣区域候选项作为提取网络的输出。
4.根据权利要求2所述的基于端对端网络的机器人视觉推理抓取方法,其特征在于:步骤四具体过程如下:
以第五卷积阶段的输出C5和步骤二中所得的感兴趣区域同时输入物体检测器,得到场景物体检测结果,包括物体定位和类别置信度;以第五卷积阶段的输出C5和步骤二中所得的感兴趣区域同时输入抓取检测器,在每个感兴趣区域中提取属于该感兴趣区域的抓取部位,包括抓取部位的定位和置信度。
5.根据权利要求2所述的基于端对端网络的机器人视觉推理抓取方法,其特征在于:步骤五具体过程如下:
使用第五卷积阶段的输出C5和物体检测结果作为输入,通过物体对池化层,获取任意物体对的特征组合,并将其送入视觉操作关系推理网络,完成对场景中任意物体对间关系的推理和判定,最终通过融合所有物体对间的关系,完成场景中操作关系树的构建。
6.根据权利要求1所述的基于端对端网络的机器人视觉推理抓取方法,其特征在于:所述的深度卷积网络算法为ResNet-101网络或者VGG16网络。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安交通大学,未经西安交通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910093952.5/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种3D压印字符无分割序列识别方法及系统
- 下一篇:组合仪表指针读数计算系统





