[发明专利]一种基于深度神经网络的安全帽佩戴检测方法及系统有效
申请号: | 202111010467.0 | 申请日: | 2021-08-31 |
公开(公告)号: | CN113792629B | 公开(公告)日: | 2023-07-18 |
发明(设计)人: | 江赛华;高义朋;宋滔 | 申请(专利权)人: | 华南理工大学 |
主分类号: | G06V20/40 | 分类号: | G06V20/40;G06V10/44;G06V40/10;G06V10/82;G06N3/0464;G06N3/08 |
代理公司: | 广州市华学知识产权代理有限公司 44245 | 代理人: | 郑秋松 |
地址: | 510640 广*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 神经网络 安全帽 佩戴 检测 方法 系统 | ||
1.一种基于深度神经网络的安全帽佩戴检测方法,其特征在于,包括以下步骤:
获取需要被检测的待测图片;
准备完成预训练的目标检测器;所述目标检测器为改进式YOLOv5x目标检测模型,所述改进式YOLOv5x目标检测模型将原YOLOv5x目标检测模型设置的数据增强替换为对图片进行HSV色彩空间增强处理、Mask-Mix图像自混合处理、Mosaic多图像组合处理中的一种或多种的混合数据增强,并且将原YOLOv5x目标检测模型的BECLogits损失函数替换为基于IOU构造的LHead-IoU损失函数;
将待测图片输入目标检测器,目标检测器判断待测图片中的人物头像是否佩戴安全帽,然后目标检测器把判断结果在待测图片中进行标注形成已检测图片;
目标检测器输出已检测图片。
2.根据权利要求1中所述基于深度神经网络的安全帽佩戴检测方法,其特征在于,所述目标检测器,其预训练的具体步骤包括:
获取安全帽佩戴检测数据集,所述安全帽佩戴检测数据集由训练图片组成,训练图片中佩戴安全帽的人物头像附带标注框;
对改进式YOLOv5x目标检测模型配置参数;
将训练图片输入改进式YOLOv5x目标检测模型,改进式YOLOv5x目标检测模型对待测图片先进行混合数据增强,再对待测图片中的人物头像是否佩戴安全帽进行预测,生成带有预测框的预测图片;
全部训练图片经过改进式YOLOv5x目标检测模型的预测训练后,将预测图片的预测框与对应的训练图片的标注框进行比对,根据预测框与标注框的差异计算LHead-IoU损失函数;
根据LHead-IoU损失函数的计算结果对改进式YOLOv5x目标检测模型的配置参数进行调整,从而完成对目标检测器的训练。
3.根据权利要求2中所述基于深度神经网络的安全帽佩戴检测方法,其特征在于,所述预测框和标注框均分别带有类别和置信度;所述类别用于表示人物头像是否佩戴安全帽的判断结果分类,所述置信度用于表示人物头像是否佩戴安全帽的真实情况落在判断结果周围的概率。
4.根据权利要求1中所述基于深度神经网络的安全帽佩戴检测方法,其特征在于,所述混合数据增强为根据训练图片的像素、长宽、颜色特性、人物头像位置分布,选择执行HSV色彩空间增强处理、Mask-Mix图像自混合处理、Mosaic多图像组合处理中的一种或多种图像处理方法。
5.根据权利要求4中所述基于深度神经网络的安全帽佩戴检测方法,其特征在于,所述混合数据增强还包括对训练图片再进行自适应平移或放缩从而得到检测图片。
6.根据权利要求1中所述基于深度神经网络的安全帽佩戴检测方法,其特征在于,所述基于IOU构造的损失函数LHead-IoU计算如下式:
其中,IoU表示预测框和标注框的交并比,b表示表示预测框的中心点,bgt表示表示标注框的中心点,ρ2(b,bgt)表示计算预测框中心点和标注框中心点之间欧氏距离的平方,c表示预测框和标注框所在的最小闭包区域的对角线长度,w表示预测框和标注框所在的最小闭包区域的宽,bw表示预测框的宽,表示标注框的宽;
IoU的计算如下式:
其中,B代表预测框,Bgt代表标注框,|B∩Bgt|表示计算标注框和预测框交集的面积,|B∪Bgt|表示计算标注框和预测框并集的面积。
7.根据权利要求1中所述基于深度神经网络的安全帽佩戴检测方法,其特征在于,所述待测图片为从图像库下载的图片,或者从视频流中抽帧处理得到的视频帧图片。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学,未经华南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111010467.0/1.html,转载请声明来源钻瓜专利网。