[发明专利]一种基于时序触觉数据处理的物体抓取方法有效
申请号: | 202110491322.0 | 申请日: | 2021-05-06 |
公开(公告)号: | CN113172629B | 公开(公告)日: | 2023-08-01 |
发明(设计)人: | 梁斌;周星如;刘厚德;王学谦;朱晓俊 | 申请(专利权)人: | 清华大学深圳国际研究生院 |
主分类号: | B25J9/16 | 分类号: | B25J9/16;B25J13/08 |
代理公司: | 深圳新创友知识产权代理有限公司 44223 | 代理人: | 徐罗艳 |
地址: | 518055 广东省深圳市*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 时序 触觉 数据处理 物体 抓取 方法 | ||
1.一种基于时序触觉数据处理的物体抓取方法,其特征在于,包括以下步骤:
S1、根据物体的位置信息获取最优抓取区域;
S2、当机械手运行到所述最优抓取区域时,主控制计算机生成控制指令,控制机械手以预设的力闭合并停留多个触觉传感器采集周期,停留期间通过触觉传感器采集物体的触觉数据,所述触觉数据包含机械手对物体施加的力的大小和方向信息;
S3、将每个采集周期的触觉数据转化为触觉图像,再将按时间排列的触觉图像进行时间维度上的叠加,得到叠加图像;
S4、以所述叠加图像作为初始的网络输入,利用预先训练好的力的跟踪运动网络,进行循环传递,预测出未来时序的若干帧触觉图像;
S5、将所述若干帧触觉图像构成的帧序列输入至预先训练好的LSTM分类网络中进行分类,输出表征本次抓取是否为稳定抓取的分类结果;
S6、若所述分类结果显示本次抓取为稳抓取,则主控制计算机控制机械手进行抓取;反之,则主控制计算机控制机械手松开物体,本次抓取任务结束。
2.如权利要求1所述的基于时序触觉数据处理的物体抓取方法,其特征在于,步骤S1中通过直接指定物体的摆放位置来获得所述最优抓取区域。
3.如权利要求1所述的基于时序触觉数据处理的物体抓取方法,其特征在于,步骤S1中通过视觉方式获取所述最优抓取区域,具体包括:
利用3D深度相机获取物体的图像信息;
根据物体的图像信息筛选出满足力封闭条件的可行抓取区域;
再将满足力封闭条件的可行抓取区域输入多层感知机,筛选出所述最优抓取区域。
4.如权利要求1所述的基于时序触觉数据处理的物体抓取方法,其特征在于,所述力的跟踪运动网络包括:由输入端至输出端依次连接的第一卷积层、若干串联的ConvLSTM模块、第二卷积层、下采样层和第三卷积层;其中,所述ConvLSTM模块用于根据当前图像帧传播的时空特征预测下一帧中每个像素的期望值;在网络末端将第三卷积层的输出、第一卷积层的输出和网络输入三者进行叠加后作为输出的预测图像,并作为新的网络输入进行所述循环传递。
5.如权利要求4所述的基于时序触觉数据处理的物体抓取方法,其特征在于,在输入序列T={N[1],N[2],…,N[Nn]}的情况下,通过所述力的跟踪运动网络进行预测后输出的预测序列为:
T'={N'[Nn+1],N'[Nn+2],…,N'[Nn+Nm]}=f(T,θv)
其中,输入序列T包含Nn帧按时间排列的触觉图像N[1]~N[Nn],预测序列包含预测的未来Nm帧触觉图像N'[Nn+1]~N'[Nn+Nm],f(T,θv)表示力的跟踪运动网络的变换函数,θv代表力的跟踪运动网络的学习参数。
6.如权利要求5所述的基于时序触觉数据处理的物体抓取方法,其特征在于,对所述力的跟踪运动网络进行训练时所使用的损失函数为地面真实图像与预测图像之间差值的L2-范数,具体形式如下:
其中,T[Nn+k]表示地面真实图像的序列,长度为Nn+k。
7.如权利要求1所述的基于时序触觉数据处理的物体抓取方法,其特征在于,所述LSTM分类网络包括由输入端至输出端依次连接的向量化特征层、LSTM网络、全连接层和Softmax函数层。
8.如权利要求7所述的基于时序触觉数据处理的物体抓取方法,其特征在于,对所述LSTM分类网络进行训练时,为防止过拟合,在所述LSTM网络的输出端增加两个丢弃率为0.5的Dropout正则化层。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学深圳国际研究生院,未经清华大学深圳国际研究生院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110491322.0/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种精密型数控机床
- 下一篇:一种智慧教育的基于现场的互动教学装置