[发明专利]基于移动物体检测的目标检测自动标注方法及装置有效
申请号: | 201910551489.4 | 申请日: | 2019-06-24 |
公开(公告)号: | CN110288629B | 公开(公告)日: | 2021-07-06 |
发明(设计)人: | 杨文龙 | 申请(专利权)人: | 湖北亿咖通科技有限公司 |
主分类号: | G06T7/20 | 分类号: | G06T7/20;G06K9/00 |
代理公司: | 北京智汇东方知识产权代理事务所(普通合伙) 11391 | 代理人: | 康正德 |
地址: | 430056 湖北省武汉市经济开发区神*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 移动 物体 检测 目标 自动 标注 方法 装置 | ||
1.一种基于移动物体检测的目标检测自动标注方法,包括:
采用场景分类器确定待检测视频的场景类别,选取与所述场景类别具有对应关系的至少一种移动物体检测算法,所述待检测视频包括同一类移动物体;
通过所述至少一种移动物体检测算法检测所述待检测视频的多帧图片中的移动物体,对检测到的所述移动物体标注目标框;
对所述多帧图片中的移动物体采用预置目标跟踪算法进行跟踪,对跟踪到的移动物体标注目标框;
采用预设算法在所述多帧图片中移除所述移动物体上重叠的目标框,将剩余目标框作为所述移动物体的最终标注结果;其中
所述采用场景分类器确定待检测视频的场景类别,选取与所述场景类别具有对应关系的至少一种移动物体检测算法,包括如下步骤:
从所述待检测视频中选取至少一帧图片;
将所述至少一帧图片输入至所述场景分类器,所述场景分类器依据所述至少一帧图片对应的场景类别确定所述待检测视频的场景类别;
选取与所述场景类别具有对应关系的至少一种移动物体检测算法,且获取所述至少一种移动物体检测算法对应的置信度。
2.根据权利要求1所述的方法,其中,若将从所述待检测视频中选取出多帧图片输入至所述场景分类器,则所述场景分类器依据所述至少一帧图片对应的场景类别确定所述待检测视频的场景类别,包括:
利用所述场景分类器对所述多帧图片进行场景分类,确定出每帧图片对应的场景类别;
依据每帧图片对应的场景类别对所述多帧图片分组,统计每组图片包含的图片帧数;
将图片帧数最多的一组图片对应的场景类别确定为所述待检测视频的场景类别。
3.根据权利要求1所述的方法,其中,对所述多帧图片中的移动物体采用预置目标跟踪算法进行跟踪,对跟踪到的移动物体标注目标框,包括:
定义所述待检测视频中已标注目标框的任一帧图片为跟踪图片,所述多帧图片中与跟踪图片相邻的后帧图片为被跟踪图片;
采用预置目标跟踪算法在被跟踪图片中跟踪与所述跟踪图片中已由移动物体检测算法标注目标框的移动物体对应的移动物体,在被跟踪图片中对跟踪到的移动物体标注目标框和对应的跟踪置信度;
以当前新标注后的被跟踪图片作为新的跟踪图片,对新的跟踪图片相邻的后帧被跟踪图片中的移动物体采用预置目标跟踪算法跟踪标注,直到所述多帧图片均标注完成。
4.根据权利要求3所述的方法,其中,采用预设算法在所述多帧图片中移除所述移动物体上重叠的目标框,包括:
确定所述多帧图片的移动物体上重叠目标框中每个目标框的置信度;
采用预设算法从所述移动物体上的重叠目标框中移除置信度低于预设值的目标框;
其中,若目标框直接由移动物体检测算法标注,则该目标框的置信度为所述移动物体检测算法对应的置信度;
若目标框由预置目标跟踪算法跟踪标注,则该目标框的置信度为跟踪图片中对应的移动物体在标注目标框时采用的移动物体检测算法对应的置信度、与所述被跟踪图片中标注目标框对应的跟踪置信度的乘积。
5.根据权利要求1-4任一项所述的方法,其中,所述预设算法包括Soft NMS算法。
6.根据权利要求1-4任一项所述的方法,其中,采用预设算法在所述多帧图片中移除所述移动物体上重叠的目标框之后,还包括:
接收用户对所述多帧图片中移动物体的目标框的检测、调整操作;
对检测、调整操作后的多帧图片进行保存。
7.根据权利要求1-4任一项所述的方法,其中,对所述多帧图片中的移动物体采用预置目标跟踪算法进行跟踪之前,还包括:
对所述待检测视频中的多帧图片进行尺寸缩放;
通过所述移动物体检测算法对不同尺寸下的多帧图片中的移动物体分别标注目标框;
将标注完目标框的不同尺寸的多帧图片缩放还原至初始尺寸。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于湖北亿咖通科技有限公司,未经湖北亿咖通科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910551489.4/1.html,转载请声明来源钻瓜专利网。