[发明专利]一种多目标检测方法、装置及存储介质有效
申请号: | 201711464595.6 | 申请日: | 2017-12-28 |
公开(公告)号: | CN109977978B | 公开(公告)日: | 2023-07-18 |
发明(设计)人: | 董振江;邓硕;林巍峣;段益坚 | 申请(专利权)人: | 中兴通讯股份有限公司 |
主分类号: | G06V10/764 | 分类号: | G06V10/764;G06V10/40;G06T3/40;G06V10/26;G06V10/774;G06V10/82;G06N3/04 |
代理公司: | 北京品源专利代理有限公司 11332 | 代理人: | 潘登 |
地址: | 518057 广东省深圳市南山*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 多目标 检测 方法 装置 存储 介质 | ||
本发明实施例公开了一种多目标检测方法、装置及存储介质,所述方法包括:将由第一图像和第二图像拼接而成的整合图像输入神经网络模型;其中,所述第一图像包含多类目标检测物,所述第二图像由第一图像经过降采样处理获得;通过所述神经网络模型提取整合图像特征、将所述整合图像特征分割成分别对应所述多类目标检测物的特征、并对所述多类目标检测物的特征进行并行分支检测;根据所述并行分支检测的结果获得多目标检测结果。
技术领域
本发明涉及目标检测技术,尤其涉及一种多目标检测方法、装置及存储介质。
背景技术
在计算机视觉领域,“目标检测”主要利用计算机图像处理技术对目标物进行实时检测,自动识别图像上指定的目标物的位置和类别,在智能化交通系统、智能监控系统和军事目标检测等领域具有广泛的应用。
常用的目标检测方法中,首先,通过在图像中确定约1000-2000个候选框,将每个候选框内的图像块缩放至相同大小,并输入到卷积神经网络(R-CNN,Region Proposal-Convolutional Neural Network)中进行特征提取;然后,对候选框中提取出的特征使用分类器判别是否属于一个特征类;最后,对属于某一特征的候选框用回归器进行位置调整,从而实现特定场景下单一类型的目标物的检测。使用上述方案进行目标检测时,当需要对密集场景下的对多个类型的目标物进行检测时,需要针对多个类型目标物分别建立神经网络模型分别进行训练和识别,从而影响了了目标检测的效率。
发明内容
为解决现有存在的技术问题,本发明实施例提供一种多目标检测方法、装置及存储介质,可以有效地提高目标检测的效率。
为达到上述目的,本发明实施例的技术方案是这样实现的:
本发明实施例提供了一种多目标检测方法,包括:
将由第一图像和第二图像拼接而成的整合图像输入神经网络模型;其中,所述第一图像包含多类目标检测物,所述第二图像由第一图像经过降采样处理获得;
通过所述神经网络模型提取整合图像特征、将所述整合图像特征分割成分别对应所述多类目标检测物的特征、并对所述多类目标检测物的特征进行并行分支检测;
根据所述并行分支检测的结果获得多目标检测结果。
上述方案中,所述神经网络模型包括第一神经网络、与所述第一神经网络进行级联的切分层及与所述切分层级联的多个第二神经网络;所述通过所述神经网络模型提取整合图像特征、将所述整合图像特征分割成分别对应所述多类目标检测物的特征、并对所述多类目标检测物的特征进行并行分支检测,包括:
所述第一神经网络以所述整合图像作为输入,提取所述整合图像特征作为输出;所述切分层以所述整合图像特征作为输入,分割成分别与所述多类目标检测物对应的特征向量作为输出;所述第二神经网络分别与所述多类目标检测物对应,所述第二神经网络分别以对应的目标检测物的特征向量作为输入,对所述目标检测物的特征向量进行并行分支判断分别获得所述目标检测物的判断结果作为输出。
上述方案中,所述第一神经网络为卷积神经网络,所述第二神经网络为长短期记忆网络。
上述方案中,所述切分层包括转置层,所述转置层与所述卷积神经网络的全连接层进行级联,用于对所述全连接层输出的整合图像特征进行转置。
上述方案中,所述切分层还包括与所述转置层进行级联的剪切层,所述剪切层用于将所述转置层输出的转置结果中符合设定条件的数据进行删除;其中,所述符合设定条件的数据为所述卷积神经网络的卷积层进行卷积过程中,由同时覆盖所述第一图像和第二图像的区域的卷积核进行卷积处理所产生的数据。
上述方案中,所述剪切层,还用于对所述转置层输出的转置结果根据所删除的数据的位置切分成分别对应所述多类目标检测物的多个特征向量,以作为所述长短期记忆网络的输入。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中兴通讯股份有限公司,未经中兴通讯股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711464595.6/2.html,转载请声明来源钻瓜专利网。