[发明专利]一种基于轻量级卷积神经网络的抓取位姿检测方法及设备在审
申请号: | 202111656936.6 | 申请日: | 2021-12-30 |
公开(公告)号: | CN114332209A | 公开(公告)日: | 2022-04-12 |
发明(设计)人: | 陶波;唐晶;龚泽宇;尹周平 | 申请(专利权)人: | 华中科技大学 |
主分类号: | G06T7/70 | 分类号: | G06T7/70;G06N3/08;G06N3/04;G06F17/16 |
代理公司: | 华中科技大学专利中心 42201 | 代理人: | 孔娜 |
地址: | 430074 湖北*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 轻量级 卷积 神经网络 抓取 检测 方法 设备 | ||
1.一种轻量级卷积神经网络的抓取位姿检测方法,其特征在于,该方法包括以下步骤:
(1)基于网络收敛性指标构建轻量级卷积神经网络模型;
(2)对包含待抓取物体RGB-D信息和抓取位姿检测框的抓取数据集进行增强操作,基于增强后的包含抓取物体RGB-D信息和抓取位姿检测框的抓取数据集来训练轻量级卷积神经网络模型;
(3)将所获取的、未知物体的RGB-D图像信息输入训练好的轻量级卷积神经网络模型,以得到RGB-D图像对应的抓取质量特征图、抓取角度特征图及抓取宽度特征图;
(4)索引抓取质量特征图中的抓取质量最大的位置,同时基于抓取角度特征图及抓取宽度特征图确定抓取角度及夹爪宽度,继而确定图像坐标系下机器人的抓取姿态;
(5)基于图像坐标系与机器人坐标系之间的转换关系及图像坐标系下机器人的抓取姿态计算获得机器人坐标系下的机器人抓取位姿。
2.如权利要求1所述的轻量级卷积神经网络的抓取位姿检测方法,其特征在于:未知物体的RGB-D图像是通过本地的深度相机获取的。
3.如权利要求1所述的轻量级卷积神经网络的抓取位姿检测方法,其特征在于:所述轻量级卷积神经网络模型由一个9*9卷积层、三个3*3MBconv块、两个5*5MBconv块、两个4*4反卷积层和一个9*9反卷积层顺次连接构成。
4.如权利要求1所述的轻量级卷积神经网络的抓取位姿检测方法,其特征在于:网络收敛性指标的计算公式为:
其中,对应于普通卷积层和反卷积层的网络收敛性指标,对应于残差块的网络收敛性指标,对应于MBconv块的网络收敛性指标。
5.如权利要求4所述的轻量级卷积神经网络的抓取位姿检测方法,其特征在于:
其中,d是卷积层的深度,为每层卷积层的维度,L是对应残差块或者MBconv块的个数,为残差块中非shortcut通路的放缩系数,ηSE为MBconv块中SE层内非shortcut通路的放缩系数,ηMB为MBconv块中非shortcut通路的放缩系数。
6.如权利要求1所述的轻量级卷积神经网络的抓取位姿检测方法,其特征在于:训练过程中使用的损失函数为:
其中:
式中,是第i张图片上的第k个抓取真实值,是模型对于第i张图片上的第k个抓取的预测。
7.如权利要求1所述的轻量级卷积神经网络的抓取位姿检测方法,其特征在于:图像坐标系下机器人的抓取姿态为:
Gr=(Q,P,Φr,Wr)
其中,Q是机器人抓取质量分数,P=(x,y,z)是机器人坐标系下机器人最优抓取位置的中心,Φr是机器人末端抓取姿态在机器人坐标系中的转角,Wr是机器人末端执行器在机器人坐标系中所张开的角度。
8.如权利要求1所述的轻量级卷积神经网络的抓取位姿检测方法,其特征在于:从图像坐标系到相机坐标系间机器人抓取的转换关系为:
Gr=Trc(Tci(Gi))
其中,Trc是从相机坐标系到机器人坐标系的转换矩阵,Tci是从RGB-D坐标系到相机坐标系的转换矩阵;其中,
Gi=(Q,S,Φi,Wi)
其中,Q是机器人抓取质量分数,S=(u,v)是RGB-D图像坐标系下机器人最优抓取位置的中心,Φi是机器人末端抓取姿态在图像坐标系中的转角,Wi是机器人末端执行器在图像坐标系中所张开的角度。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华中科技大学,未经华中科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111656936.6/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种连接式装修工程推车缓速系统
- 下一篇:一种木材热处理装置及其热处理方法