[发明专利]多尺度机非人检测方法、装置、介质及设备在审
申请号: | 202111448871.6 | 申请日: | 2021-11-30 |
公开(公告)号: | CN114267010A | 公开(公告)日: | 2022-04-01 |
发明(设计)人: | 王慧;陈利军;洪曙光;王祥雪;林焕凯;刘双广 | 申请(专利权)人: | 高新兴科技集团股份有限公司;西安电子科技大学 |
主分类号: | G06V20/52 | 分类号: | G06V20/52;G06V20/54;G06V10/40;G06V10/74;G06V10/75;G06V10/774;G06V10/80;G06V10/82;G06V10/764;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 广州国鹏知识产权代理事务所(普通合伙) 44511 | 代理人: | 葛红 |
地址: | 510530 广东省广州*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 尺度 非人 检测 方法 装置 介质 设备 | ||
1.一种多尺度机非人检测方法,其特征在于,包括:
获取道路监控场景的图像训练集,对所述图像训练集中的训练样本进行预处理,所述训练样本为已知机非人位置信息和分类信息的道路监控场景图像;
采用预处理后的训练样本训练预设的机非人检测模型,所述机非人检测模型采用不同大小的四个预测尺度对输入图像进行机非人目标预测;
获取道路监控场景的待预测图像,通过训练好的机非人检测模型提取所述待预测图像中的机非人目标特征,所述待预测图像为未知机非人位置信息和分类信息的道路监控场景图像;
将所述机非人目标特征与道路监控场景图库中的特征信息进行匹配,得到所述待预测图像中的机非人目标的位置信息和分类信息。
2.如权利要求1所述的多尺度机非人检测方法,其特征在于,所述对所述图像训练集中的训练样本进行预处理包括:
将所述图像训练集中的训练样本调整为预设尺寸。
3.如权利要求1所述的多尺度机非人检测方法,其特征在于,所述机非人检测模型包括主干网络和特征融合层;
所述主干网络采用CSPDarknet53网络,包括依次首尾相连的第一阶段、第二阶段、第三阶段、第四阶段,所述第一阶段和第二阶段输出浅层特征,所述第三阶段和第四阶段输出深层特征,其中所述第一阶段输出的浅层特征比第二阶段输出的浅层特征更浅,所述第四阶段输出的深层特征比第三阶段输出的深层特征更深;
所述特征融合层由CONV、upsample、BottleneckCSP组成,用于对主干网络中第四阶段输出的深层特征进行特征提取,分别得到不同层次的第一特征、第二特征、第三特征、第四特征、第五特征以及第六特征;对所述第二阶段输出的浅层特征和第二特征上采样后的特征、所述第三阶段输出的深层特征和第一特征上采样后的特征、所述第一阶段输出的浅层特征和第三特征上采样后的特征、所述第四阶段输出的深层特征和第六特征、第二特征和第五特征、第三特征和第四特征分别进行融合,得到不同尺度的融合特征;将所述不同尺度的融合特征中的后四个融合特征输入预测层,所述预测层采用大小不同的四预测尺度进行机非人目标预测,得到机非人目标特征。
4.如权利要求3所述的多尺度机非人检测方法,其特征在于,所述大小不同的四个预测尺度包括16*16、32*32、64*64、128*128,其中16*16用于进行大目标预测,所述128*128用于进行小目标预测。
5.如权利要求3或4所述的多尺度机非人检测方法,其特征在于,所述机非人检测模型的损失函数为边框回归损失函数、置信度损失函数和分类损失函数的加权和;
所述边框回归损失函数采用CIOU Loss和Distribution Focal Loss的和;
所述置信度损失函数采用FocalLoss;
所述分类损失函数采用多分类的FocalLoss。
6.如权利要求1所述的多尺度机非人检测方法,其特征在于,所述将所述机非人目标特征与道路监控场景图库中的特征信息进行匹配,得到所述待预测图像中的机非人目标的位置信息和分类信息包括:
遍历所述道路监控场景图库中的特征信息,计算所述机非人目标特征与所述特征信息之间的相似度;
选取相似度最大的特征信息作为所述机非人目标特征的最相似特征;
以所述最相似特征对应的机非人位置信息和分类信息作为所述机非人目标特征的匹配信息。
7.如权利要求6所述的多尺度机非人检测方法,其特征在于,所述相似度为余弦相似度;
所述余弦相似度为所述机非人目标特征与所述特征信息的转置矩阵的乘积。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于高新兴科技集团股份有限公司;西安电子科技大学,未经高新兴科技集团股份有限公司;西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111448871.6/1.html,转载请声明来源钻瓜专利网。