[发明专利]行人检测方法、装置、计算机设备及存储介质在审
| 申请号: | 201910267505.7 | 申请日: | 2019-04-03 |
| 公开(公告)号: | CN110097050A | 公开(公告)日: | 2019-08-06 |
| 发明(设计)人: | 王健宗;彭俊清;瞿晓阳 | 申请(专利权)人: | 平安科技(深圳)有限公司 |
| 主分类号: | G06K9/32 | 分类号: | G06K9/32;G06K9/46;G06K9/62 |
| 代理公司: | 深圳市力道知识产权代理事务所(普通合伙) 44507 | 代理人: | 何姣 |
| 地址: | 518000 广东省深圳市福田区福*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 待检测图像 目标物体 卷积神经网络 计算机设备 存储介质 候选区域 目标特征 行人检测 边界框 提取目标图像 分类识别 基线生成 机器学习 目标图像 学习检测 智能决策 分类器 基线 图像 申请 | ||
1.一种行人检测方法,其特征在于,包括:
获取待检测图像;
确定所述待检测图像中的目标物体以及所述目标物体对应的人类基线;
根据所述人类基线生成所述目标物体对应的边界框;
根据所述边界框确定所述待检测图像中的候选区域;
将所述候选区域内的图像作为目标图像输入至卷积神经网络以使所述卷积神经网络提取所述目标图像对应的目标特征;
将所述目标特征输入至预先训练的分类器进行分类识别以得到识别结果。
2.根据权利要求1所述的行人检测方法,其特征在于,所述确定所述待检测图像中的目标物体以及所述目标物体对应的人类基线,包括:
根据帧间差分算法确定所述待检测图像中的目标物体;
基于人类注释规则,对所述目标物体作基准线处理以得到所述目标物体对应的人类基线,所述人类注释规则用于通过从行人头顶到两脚之间的点画一条线完成注释。
3.根据权利要求2所述的行人检测方法,其特征在于,所述根据帧间差分算法确定所述待检测图像中的目标物体,包括:
提取所述视频中相对所述待检测图像延后预设帧数的延后帧图像;
将所述延后帧图像与所述待检测图像相减以得到差分图像;
对所述差分图像进行阈值处理得到所述差分图像对应的二值图像;以及
根据所述二值图像确定所述待检测图像中的目标物体。
4.根据权利要求3所述的行人检测方法,其特征在于,所述对所述差分图像进行阈值处理得到所述差分图像对应的二值图像,包括:
确定所述差分图像中像素值大于预设阈值的像素点;以及,根据大于所述预设阈值的像素点确定所述差分图像对应的二值图像,所述二值图像表示为:
其中,S(i,j)表示所述二值图像,T为所述预设阈值,(i,j)表示离散图像的坐标,D表示所述差分图像;
所述根据所述二值图像确定所述待检测图像中的目标物体,包括:
将所述二值图像中S(i,j)为1对应的区域设为运动区域;
对所述运动区域通过形态学处理和连通性分析去除噪点,以确定所述待检测图像中的目标物体。
5.根据权利要求1所述的行人检测方法,其特征在于,所述根据所述人类基线生成所述目标物体对应的边界框,包括:
根据所述人类基线在所述待处理图像中的长度确定边框长度;
根据预设宽度确定边框宽度;
根据所述边框长度和边框宽度生成所述目标物体对应的边界框。
6.根据权利要求1至5任一项所述的行人检测方法,其特征在于,所述将所述目标特征输入至预先训练的分类器进行分类识别以得到识别结果之后,还包括:
基于边框回归技术,根据所述识别结果对所述目标物体的边界框进行调整以改变所述边界框;
返回执行所述根据所述边界框确定所述待检测图像中的候选区域,直至连续预设识别次数得到的识别结果均相同时,得到最终的识别结果。
7.根据权利要求6所述的行人检测方法,其特征在于,所述根据所述识别结果对所述目标物体的边界框进行调整以改变所述边界框,包括:
当所述识别结果为非行人时,对所述目标物体的边界框进行调整以改变所述边界框。
8.一种行人检测装置,其特征在于,包括:
图像获取单元,用于获取待检测图像;
目标基线确定单元,用于确定所述待检测图像中的目标物体以及所述目标物体对应的人类基线;
边界框生成单元,用于根据所述人类基线生成所述目标物体对应的边界框;
区域确定单元,用于根据所述边界框确定所述待检测图像中的候选区域;
特征提取单元,用于将所述候选区域内的图像作为目标图像输入至卷积神经网络以使所述卷积神经网络提取所述目标图像对应的目标特征;
特征识别单元,用于将所述目标特征输入至预先训练的分类器进行分类识别以得到识别结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于平安科技(深圳)有限公司,未经平安科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910267505.7/1.html,转载请声明来源钻瓜专利网。





