[发明专利]目标检测方法、装置和电子系统在审
申请号: | 202010164152.0 | 申请日: | 2020-03-10 |
公开(公告)号: | CN111401424A | 公开(公告)日: | 2020-07-10 |
发明(设计)人: | 楚选耕 | 申请(专利权)人: | 北京迈格威科技有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06K9/46 |
代理公司: | 北京超凡宏宇专利代理事务所(特殊普通合伙) 11463 | 代理人: | 董艳芳 |
地址: | 100000 北京市海淀区科*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 目标 检测 方法 装置 电子 系统 | ||
本发明提供了一种目标检测方法、装置和电子系统;该方法包括:将待处理图像输入至预先训练得到的目标检测模型中,得到输出结果;输出结果包括:针对每个提议区域的、每组检测网络输出的中间检测结果;基于输出结果,确定待处理图像的目标检测结果。目标检测模型包括多组并联的检测网络,每组检测网络分别检测待处理图像的提议区域的不同目标,因此目标检测模型可以输出待处理图的每个提议区域的不同目标的检测结果。该方式中,对于不同目标由不同的检测网络分别进行检测,即使多个目标处于拥挤或高度遮挡的场景中,多个检测网络也可以输出该场景中多个目标的检测结果,有效降低对目标的漏检情况,从而提高了目标检测结果的准确度。
技术领域
本发明涉及图像识别技术领域,尤其是涉及一种目标检测方法、装置和电子系统。
背景技术
相关技术中,在图像中检测目标对象,可以先生成一个或多个目标提议,该目标提议的具体形式可以为预定义的锚定框、或者通过网络学习生成的锚定框等;然后针对每个目标提议,预测更精确的目标对象的位置和置信度,基于预测出的位置和置信度,检测图像中的目标对象。该方式中,在一个目标对象附近易生成多个预测位置,然后通过非极大值抑制的方式,删除重复的预测位置,得到目标对象最终的位置。如果图像中目标对象之间存在遮挡,相互遮挡的目标对象在神经网络中会产生相似的特征矩阵,因而预测位置的重叠程度较高同时置信度的得分也很相似,此时,基于上述方式删除重复的预测位置的过程中,可能会将不同目标对象的预测位置误认为是一个目标对象的预测位置,进而误删除,造成目标对象的漏检。
发明内容
有鉴于此,本发明的目的在于提供一种目标检测方法、装置和电子系统,以避免在拥挤或高度遮挡场景中出现漏检,提高目标检测结果的准确度。
第一方面,本发明实施例提供了一种目标检测方法,方法包括:将待处理图像输入至预先训练得到的目标检测模型中,得到输出结果;其中,目标检测模型包括多组并联的检测网络;对于待处理图像的一个提议区域,多组检测网络用于检测该提议区域中的不同目标;输出结果包括:针对每个提议区域的、每组检测网络输出的中间检测结果;基于输出结果,确定待处理图像的目标检测结果。
在本发明较佳的实施例中,上述检测网络包括并联的第一分类层和第一回归层;第一分类层用于根据提议区域的区域特征,输出从提议区域中检测到的目标的置信度;第一回归层用于根据提议区域的区域特征,输出从提议区域中检测到的目标的位置。
在本发明较佳的实施例中,上述检测网络还包括:与第一回归层连接的特征增强子网络;特征增强子网络用于:根据提议区域对应的区域特征,以及第一回归层输出的从提议区域中检测到的目标的位置,输出提议区域的中间检测结果。
在本发明较佳的实施例中,上述增强子网络包括特征连接层、全连接层、第二分类层和第二回归层;特征连接层用于对提议区域对应的区域特征,以及第一回归层输出的从提议区域中检测到的目标的位置进行连接处理,得到连接特征;全连接层用于对连接特征进行变换处理,得到变换特征;第二分类层用于根据变换特征,输出从提议区域中检测到的目标的置信度;第二回归层用于根据变换特征,输出从提议区域中检测到的目标的位置。
在本发明较佳的实施例中,上述目标检测模型,通过下述方式训练得到:将预设的样本图像输入至目标检测模型中,得到样本图像对应的输出结果;其中,样本图像携带有目标的标注信息;标注信息包括标准位置和标准类别;输出结果包括:针对样本图像的每个提议区域,每组检测网络输出的该提议区域对应的中间检测结果;将目标的标注信息变换排列顺序,得到多组信息组合;其中,每组信息组合中,目标的标注信息的排列顺序不同;针对每个提议区域,基于预设的损失函数,计算该提议区域对应的中间检测结果和每组信息组合之间的损失值;基于损失值,训练目标检测模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京迈格威科技有限公司,未经北京迈格威科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010164152.0/2.html,转载请声明来源钻瓜专利网。