[发明专利]一种基于部件权重生成网络的行人检索方法有效
申请号: | 202010211499.6 | 申请日: | 2020-03-24 |
公开(公告)号: | CN111401286B | 公开(公告)日: | 2022-03-04 |
发明(设计)人: | 王中元;黄宝金;何政;梁超 | 申请(专利权)人: | 武汉大学 |
主分类号: | G06V40/10 | 分类号: | G06V40/10;G06V20/52;G06V10/74;G06V10/774;G06K9/62 |
代理公司: | 武汉科皓知识产权代理事务所(特殊普通合伙) 42222 | 代理人: | 魏波 |
地址: | 430072 湖*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 部件 权重 生成 网络 行人 检索 方法 | ||
本发明公开了一种基于部件权重生成网络的行人检索方法,利用DenseNet基础骨架对目标行人和图片集进行特征表示,然后通过区域候选网络(RPN)生成行人候选区域,再利用后续的识别网络学习行人的检索特征,同时使用部件权重生成网络获得对应行人的部件权重,弱化行人信息量较小的部分以达到整体非平均化匹配的目的,最后通过交替训练方式优化部件权重生成网络和区域候选网络的参数,使得最终产生更精确的行人检索结果。本发明方法有效克服了现有行人检索方法在遮挡、弱光照场景下的不足,为复杂公共视频监控环境下的行人检索任务提供了可行手段。
技术领域
本发明属于计算机视觉技术领域,涉及一种监控视频的行人检索方法,具体涉及一种基于部件权重生成网络的行人检索方法。
背景技术
传统的视频检索技术侧重于查询特定场景下的特定某类对象,而在视频监控场景下,往往由于摄像头视角的影响,会造成光照变化、遮挡等问题,使得整个检索过程变得十分困难。视频研究领域中,行人检测(Pedestrian Detection)、行人重识别(Person Re-ID)、目标跟踪(Object Track)等任务受到研究者广泛关注,行人检索过程结合了行人检测和行人重识别两项任务。行人重识别旨在对查询行人与人工剪裁的候选行人框之间的相似度进行排序,其应用的局限性在于实际场景中不存在经过剪裁的候选行人框;行人检测旨在对给定的图片集或视频帧中的行人进行检测,找出行人在像素坐标下的位置信息;行人检索旨在根据查询行人查找给定图片集或视频中同一行人的位置信息,整个过程只需给出被查询行人图片和原始监控图片集,分别通过行人检测和行人重识别的方法来完成整个行人检索任务。行人检索能够有效的帮助刑侦人员在海量监控视频中找出嫌疑目标,提高破案效率。
最初的行人检索方法是通过行人检测和行人重识别两个独立任务来完成,现成的行人检测器不可避免的会造成错检、漏检、错位等问题,这些都会对行人重识别的效果产生不利影响,进而影响最终检索的精度。自2014年以来,越来越多研究者开始关注端到端的行人检索框架,力求检测和重识别相互促进、相互优化,这已经成为行人检索的重要发展趋势。
发明内容
为了解决上述技术问题,本发明结合行人检测和行人重识别的思想,提供了一种基于部件权重生成网络的行人检索方法,本发明在端到端的行人检索网络中引入部件权重生成器,更加精确的从候选行人中识别出目标行人,达到行人检索目的。
本发明所采用的技术方案是:一种基于部件权重生成网络的行人检索方法,其特征在于,包括以下步骤:
步骤1:将原始图片集和目标行人图片通过DenseNet骨干网络和区域候选网络,提取出目标行人特征和候选行人特征,其中原始图片集来源于自然拍摄且非处理过的图片,目标行人图片取自于原始图片集并标注有行人的位置;
步骤2:将目标行人特征和候选行人特征输入识别网络进一步获取识别特征,然后将得到的行人识别特征通过部件权重生成网络,获得行人匹配的部件权重,加权度量后得到行人检索结果;
步骤3:采用余弦距离损失函数训练部件权重生成网络,采用改进的在线实例匹配损失函数训练整体的行人检索网络,其中行人检索网络表示整个端到端行人检索方法的全部网络,部件权重生成网络是其中的一部分并单独训练。
与现有的行人检索方法相比,本发明具有以下的优点与积极效果:
(1)本发明提出的是一种端到端的行人检索方法,有别于现有行人检索方法的识别模块,本发明采用部件权重生成网络细化特征度量,提高了检索精度。
(2)本发明针对了公共视频监控环境下普遍存在的遮挡、弱光照等复杂条件,具有很强的鲁棒性和实际应用价值。
附图说明
图1:本发明实施例的框图。
具体实施方式
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉大学,未经武汉大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010211499.6/2.html,转载请声明来源钻瓜专利网。