[发明专利]一种基于时间域卷积神经网络的视频行人检测方法有效
申请号: | 201710177973.6 | 申请日: | 2017-03-23 |
公开(公告)号: | CN107016357B | 公开(公告)日: | 2020-06-16 |
发明(设计)人: | 胡永利;冯乐乐;孙艳丰;尹宝才 | 申请(专利权)人: | 北京工业大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/02 |
代理公司: | 北京思海天达知识产权代理有限公司 11203 | 代理人: | 张慧 |
地址: | 100124 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明一种基于时间域卷积神经网络的行人检测方法,将针对单幅图像的行人检测方法扩展为针对连续帧图像,训练卷积神经网络学习单幅视频帧上的空间关联性和连续帧之间的时间关联性,弥补了现有方法在检测被遮挡的行人上的不足。此外,采用时间域卷积神经网络进行的行人检测,对行人的姿势变化更加鲁棒,整体的检测精确度和召回率均有提升。 | ||
搜索关键词: | 一种 基于 时间 卷积 神经网络 视频 行人 检测 方法 | ||
【主权项】:
一种基于时间域卷积神经网络的行人检测方法,其特征在于,包括以下步骤:步骤1.将训练用的视频序列分离成图像;按照时间顺序,把连续的N帧图像灰度化,拼成一个N通道的图像,称之为连续帧图像;步骤2.对每一个连续帧图像,取出对应的N个标签进行合并,合并后的标签信息作为连续帧图像的标签;步骤3.把组织好的连续帧图像和标签信息输入到卷积神经网络中进行训练,得到RPN网络和Fast RCNN网络的参数;步骤4.把测试用的视频序列分离成图像,采用步骤1,得到测试用的连续帧图像;步骤5.把测试用的连续帧图像输入到RPN网络,读取训练好的参数,得到数百个粗略的候选区域;再把连续帧图像和候选区域输入到Fast RCNN网络中,读取训练好的参数,得到预测包围框和对应的可信度;步骤6.如果当前帧不是视频的开头几帧,那么利用前几帧的检测结果对当前帧包围框的可信度进行修正;如果当前帧某个包围框与前几帧当中的检测结果存在较大的重叠,那么基于相互重叠的预测包围框和先前检测包围框之间的时间差,将预测可信度和先前检测可信度进行加权求和,得到预测包围框的最终可信度,赋予当前帧中重叠的预测包围框;最后,遵循非最大值抑制的规则,把当前帧的预测包围框按照它们的位置和可信度进行合并筛选,作为最终的检测结果输出。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京工业大学,未经北京工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201710177973.6/,转载请声明来源钻瓜专利网。
- 上一篇:一种Displayport接头
- 下一篇:一种内部单独保护的连接器结构