[发明专利]一种基于深度学习的柔性机器人视觉识别与定位系统有效
申请号: | 201611151116.0 | 申请日: | 2016-12-13 |
公开(公告)号: | CN106709909B | 公开(公告)日: | 2019-06-25 |
发明(设计)人: | 余永维;杜柳青 | 申请(专利权)人: | 重庆理工大学 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T7/73;G06T7/66 |
代理公司: | 重庆博凯知识产权代理有限公司 50212 | 代理人: | 周辉;伍伦辰 |
地址: | 400054 重*** | 国省代码: | 重庆;50 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 柔性机器人 位姿 标准图像 轮廓边缘 定位系统 视觉识别 外接矩形 学习 定位准确性 二值化处理 归一化处理 外轮廓边缘 复杂条件 零件识别 零件图像 轮廓形状 网络提取 自动抽取 拾取 图像 网络 | ||
1.一种基于深度学习的柔性机器人视觉识别与定位系统,其特征在于,包括如下步骤:
1)零件外轮廓边缘提取:采用CCD相机获取待识别零件所在区域的图像,对原图像进行二值化处理,提取图像中各零件的外轮廓边缘;
2)归一化处理:确定图像中各零件的外轮廓边缘在水平方向上的外接矩形,并将每个外接矩形向外扩大至少2个像素得到每个零件的待识别区域,将每个零件的待识别区域归一化处理为标准图像;
3)在90度范围内,等角度地逐渐旋转各零件的标准图像,并计算每次旋转后该零件在当前位置处的外轮廓边缘在水平方向上的外接矩形的面积,确定各零件的标准图像旋转到其外轮廓边缘在水平方向上的外接矩形的面积最小时的旋转角度α;
4)采用已经学习有待识别零件的外轮廓边缘在水平方向上的外接矩形的面积最小时的四种位姿的深度学习网络提取所述步骤3)中各零件旋转角度为α时的外轮廓边缘形状,识别混杂在各零件中的待识别零件以及其旋转后所处的位姿;
5)根据识别出来的待识别零件在所述步骤3)中的旋转角度α,以及识别时所处的位姿,计算旋转前待识别零件所处的实际位姿,并将该位姿数据传给柔性机器人,以便柔性机器人拾取待识别零件。
2.如权利要求1所述的基于深度学习的柔性机器人视觉识别与定位系统,其特征在于,所述步骤1)中,对原图像采用单一阈值法进行二值化处理,并采用Roberts算子快速提取图像中各零件的外轮廓边缘。
3.如权利要求1所述的基于深度学习的柔性机器人视觉识别与定位系统,其特征在于,所述步骤2)中,先计算各零件的外轮廓边缘在CCD相机视图坐标上的最大横坐标xmax、最小横坐标xmin、最大纵坐标ymax以及最小纵坐标ymin,得到以(xmin,ymax)、(xmax,ymax)、(xmax,ymin)、(xmin,ymin)为顶点的水平方向上零件轮廓边缘的外接矩形;并将每个外接矩形沿x方向和y方向分别向外扩大至少2个像素得到每个零件的待识别区域,将每个零件的待识别区域归一化处理为标准图像。
4.如权利要求1所述的基于深度学习的柔性机器人视觉识别与定位系统,其特征在于,所述步骤3)中,具体包括如下步骤:
3.1)计算各零件的外轮廓边缘在当前位置的水平外接矩形的面积,由图像的零阶几何矩和一阶几何矩计算出图像区域的几何中心即形心;
3.2)以零件外轮廓边缘图像的形心为旋转中心,每次旋转角度为k度,直到旋转到90度;
3.3)每次旋转后,以坐标最大最小法确定零件轮廓边缘在旋转后的水平外接矩形,并计算其面积;比较各旋转位置的水平外接矩形面积,确定面积最小时的位置;
3.4)以零件外轮廓边缘图像在上述面积最小时的位置为起点,绕形心沿顺时针方向和逆时针方向分别旋转(k-1)/i次,每次旋转角度为i度,其中i为系统定位精度;并计算每次旋转后该零件在当前位置处的外轮廓边缘在水平方向上的外接矩形的面积,确定该外接矩形的面积最小时该零件的位置;
3.5)确定各零件的标准图像旋转到其外轮廓边缘在水平方向上的外接矩形的面积最小时位置的旋转角度α。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于重庆理工大学,未经重庆理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201611151116.0/1.html,转载请声明来源钻瓜专利网。