[发明专利]一种定位控制方法、装置、存储介质及机器人在审
申请号: | 201811489147.6 | 申请日: | 2018-12-06 |
公开(公告)号: | CN109739220A | 公开(公告)日: | 2019-05-10 |
发明(设计)人: | 魏泽;刘志昌;郑博;王建鑫;寸毛毛 | 申请(专利权)人: | 珠海格力电器股份有限公司 |
主分类号: | G05D1/02 | 分类号: | G05D1/02;G06T5/00;G06T5/30;G06T7/246;G06T7/73 |
代理公司: | 北京煦润律师事务所 11522 | 代理人: | 朱清娟;梁永芳 |
地址: | 519070 广东省*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 前景图像 定位准确性 存储介质 定位控制 预处理 混合高斯模型 定位方式 定位目标 计算目标 目标图像 人本发明 硬件触发 机器人 移动 | ||
本发明公开了一种定位控制方法、装置、存储介质及机器人,该方法包括:利用混合高斯模型自目标图像中提取出前景图像;对所述前景图像进行预处理,得到目标前景图像;根据至少两帧所述目标前景图像定位目标物体、和/或计算目标物体的移动速度。本发明的方案,可以解决硬件触发定位方式存在定位准确性差的问题,达到提升定位准确性的效果。
技术领域
本发明属于机器人技术领域,具体涉及一种定位控制方法、装置、存储介质及机器人,尤其涉及一种生产线产品定位方法、装置、存储介质及机器人。
背景技术
在工业生产中,随着机器人的普及以及自动化程度的不断提高,机器视觉技术被广泛应用到工业生产中。其中,对物料或生产成品的视觉跟踪是不可或缺的一部分关键技术,例如机器人在抓取、搬运物体时需要知道物体的确切位置信息。传统的硬件触发定位方式,只能确定触发的一瞬间有物体通过,而不能知道物体的整个移动过程、物体在触发传感器时位于触发线的具体位置以及触发传感器的物体是否为目标物体。
发明内容
本发明的目的在于,针对上述缺陷,提供一种定位控制方法、装置、存储介质及机器人,以解决现有技术中硬件触发定位方式,只能确定触发的一瞬间有物体通过而不能知道物体的整个移动过程、物体在触发传感器时位于触发线的具体位置以及触发传感器的物体是否为目标物体,存在定位准确性差的问题,达到提升定位准确性的效果。
本发明提供一种定位控制方法,包括:利用混合高斯模型自目标图像中提取出前景图像;对所述前景图像进行预处理,得到目标前景图像;根据至少两帧所述目标前景图像定位目标物体、和/或计算目标物体的移动速度。
可选地,利用混合高斯模型自目标图像中提取出前景图像,包括:获取背景图像和目标图像;其中,所述背景图像中未包含目标物体的图像,所述目标图像中包含目标物体的图像;建立所述背景图像的高斯模型,并建立所述目标图像的混合高斯模型;自所述混合高斯模型中剔除与所述高斯模型相同或近似程度达到设定程度的分量,得到所述目标图像的前景图像。
可选地,其中,建立所述背景图像的高斯模型,包括:将所述背景图像由RGB色彩空间变换到HSV色彩空间;利用HSV色彩空间下的背景图像建立只有背景的高斯模型;和/或,自所述混合高斯模型中剔除与所述高斯模型相同或近似程度达到设定程度的分量,包括:根据所述背景图像的高斯模型,将所述目标图像中的各个像素分为前景和背景,实现目标图像中前景、背景的分离;之后,更新所述背景图像的高斯模型,以在下一帧前景图像的提取中使用。
可选地,对所述前景图像进行预处理,包括:采用图像形态学操作中的腐蚀操作去除噪点的方式,对所述前景图像进行去噪处理;和/或,采用闭运算修复空洞的方式,对所述前景图像进行空洞修复处理。
可选地,根据至少两帧所述目标前景图像定位目标物体,包括:根据所述目标前景图像中每个连通域的面积、重心中的至少一种信息,确定至少两帧所述目标前景图像中目标物体之间的位置对应关系,实现对目标物体的定位与跟踪。
可选地,根据至少两帧所述目标前景图像计算目标物体的移动速度,包括:根据至少两帧所述目标前景图像中每个连通域的重心变化信息,确定至少两帧所述目标前景图像中目标物体运动的方向和距离;结合至少两帧所述目标图像的采样时间间隔,确定所述目标物体的运行速度。
与上述方法相匹配,本发明另一方面提供一种定位控制装置,包括:提取单元,用于利用混合高斯模型自目标图像中提取出前景图像;预处理单元,用于对所述前景图像进行预处理,得到目标前景图像;计算单元,用于根据至少两帧所述目标前景图像定位目标物体、和/或计算目标物体的移动速度。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于珠海格力电器股份有限公司,未经珠海格力电器股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811489147.6/2.html,转载请声明来源钻瓜专利网。