[发明专利]一种基于端对端网络的机器人视觉推理抓取方法在审
| 申请号: | 201910093952.5 | 申请日: | 2019-01-30 |
| 公开(公告)号: | CN109919151A | 公开(公告)日: | 2019-06-21 |
| 发明(设计)人: | 兰旭光;张翰博;周欣文;田智强;郑南宁 | 申请(专利权)人: | 西安交通大学 |
| 主分类号: | G06K9/32 | 分类号: | G06K9/32;G06K9/46;G06N3/04;G06N3/08 |
| 代理公司: | 西安通大专利代理有限责任公司 61200 | 代理人: | 徐文权 |
| 地址: | 710049 *** | 国省代码: | 陕西;61 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | 本发明公开了一种基于端对端卷积神经网络的机器人视觉推理抓取方法。通过以RGB图片为输入,以一次卷积网络的前向传播,同时完成物体检测、操作关系推理和抓取部位检测。通过提取物体的感兴趣区域,完成对每个物体上的抓取部位进行检测。通过视觉操作关系推理,获取场景的视觉操作关系树,对正确的抓取顺序进行决策。本发明与之前的发明相比,速度更快,准确率和鲁棒性更高。通过使用深度学习和深度特征对场景进行理解,提升了方法的有效性和可靠性。 | ||
| 搜索关键词: | 抓取 推理 机器人视觉 视觉 卷积神经网络 端对端网络 感兴趣区域 场景 部位检测 前向传播 深度特征 物体检测 次卷积 端对端 关系树 鲁棒性 准确率 检测 决策 网络 学习 图片 | ||
【主权项】:
1.一种基于端对端网络的机器人视觉推理抓取方法,其特征在于,包括以下步骤:步骤一:通过RGB图像传感器获取当前包含目标物体的场景图像;步骤二:通过深度卷积网络算法,提取场景图像的图片特征;步骤三:通过感兴趣区域提取网络,获取场景图像的感兴趣区域;步骤四:基于感知网络,通过物体检测器和抓取检测器,获取当前场景中所有目标物体的位置和对应的抓取部位;步骤五:以步骤三的物体检测结果的感兴趣区域为基础,完成当前场景操作关系树的构建过程;步骤六:根据物体检测和抓取检测结果,结合场景操作关系树,规划抓取顺序,并实施抓取。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安交通大学,未经西安交通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910093952.5/,转载请声明来源钻瓜专利网。
- 上一篇:一种3D压印字符无分割序列识别方法及系统
- 下一篇:组合仪表指针读数计算系统





