[发明专利]一种基于M3-YOLOv5的指定移动目标检测方法在审
申请号: | 202111303025.5 | 申请日: | 2021-11-05 |
公开(公告)号: | CN114005020A | 公开(公告)日: | 2022-02-01 |
发明(设计)人: | 李欣欣;刘作军;张杰;杨鹏;李安吉 | 申请(专利权)人: | 河北工业大学 |
主分类号: | G06V20/00 | 分类号: | G06V20/00;G06V10/22;G06V10/25;G06V10/774;G06V10/764;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 天津翰林知识产权代理事务所(普通合伙) 12210 | 代理人: | 王瑞 |
地址: | 300130 天津市红桥区*** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 m3 yolov5 指定 移动 目标 检测 方法 | ||
本发明公开了一种基于M3‑YOLOv5的指定移动目标检测方法,将YOLOv5的骨干网络替换为原始MobileNetV3算法网络的去除最后的平均池化层和两个逐点卷积层的部分,并添加了上采样模块。将YOLOv5的瓶颈网络中的与输出端最近的3个CBL模块替换为1个PDP_1模块和2个PDP_2模块。本发明将YOLOv5目标检测算法与MobileNetV3检测算法相结合,改进简便,构建出检测速度快、检测精度高的网络模型。本发明在保留检测精度的同时提高了检测速度,更适用于指定移动目标的检测。
技术领域
本发明属于目标检测领域,具体是一种基于MobileNetV3-YOLOv5的指定移动目标检测方法。
背景技术
目标检测是在图像或者视频中判断是否存在感兴趣的目标,若存在则确定目标在图像中的位置,同时对目标所属类别进行判断。基于深度学习的目标检测比传统方法的速度和精度更高,并广泛应用在各个领域,如道路上的行人车辆识别,生产制造过程中的产品瑕疵识别等等。目标检测是计算机视觉领域中重要的研究方向之一,随着人工智能、互联网等的快速发展,人们身边存在大量的图像与视频数据,使得计算机视觉技术对人类生活的影响越来越大。
YOLO(You Only Look Once)是一种单阶段的目标检测算法,其基本原理是把目标检测转变成一个回归问题,利用整张图片作为网络的输入,仅仅经过一个神经网络便得到边界框位置及其所属类别。YOLOv5是YOLO系列最新的网络模型,其检测效果优于YOLOv1-YOLOv4。
现有技术中,应用于不同场景的改进的YOLO算法有很多,并取得了良好的应用成果。申请号为202110274273.5的文献公开了一种基于MYOLOv3网络的杆塔图像检测方法,利用MobileNetV3-Large网络构建3个检测子网路,减少检测子网络中各个卷积层的通道数,提高了对杆塔图像的检测速度。但此改进方法中,杆塔是静止目标。针对指定移动目标的检测,受到同类目标干扰以及目标移动速度的影响,现有方法的应用效果并不理想,需要更高的检测速度及准确度。
发明内容
针对现有技术的不足,本发明拟解决的技术问题是,提供一种基于MobileNetV3-YOLOv5的指定移动目标检测方法。
本发明解决所述技术问题的技术方案是,提供一种基于M3-YOLOv5的指定移动目标检测方法,其特征在于,该方法包括以下步骤:
步骤1、获取目标检测所需的图像数据;
步骤2、对图像数据进行划分,建立训练集和测试集;
步骤3、结合MobileNetV3算法对YOLOv5算法进行改进,得到MobileNetV3-YOLOv5算法的网络模型;
步骤4、使用步骤2得到的训练集对步骤3得到的MobileNetV3-YOLOv5网络模型进行训练,得到训练后的MobileNetV3-YOLOv5网络模型;
步骤5、将步骤2得到的测试集输入步骤4得到的训练后的MobileNetV3-YOLOv5网络模型中进行检测,得到检测结果。
与现有技术相比,本发明有益效果在于:
1、本发明将YOLOv5目标检测算法与MobileNetV3检测算法相结合,改进简便,构建出检测速度快、检测精度高的网络模型。本发明在保留检测精度的同时提高了检测速度,保证检测的实时性,更适用于指定移动目标的检测,使移动终端、嵌入式设备运行神经网络模型成为可能。
2、本发明将YOLOv5的骨干网络替换为原始MobileNetV3算法网络的去除最后的平均池化层和两个逐点卷积层的部分,并添加了上采样模块,便于瓶颈网络中的与最大尺度输出最近的拼接模块(Concat)的操作。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于河北工业大学,未经河北工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111303025.5/2.html,转载请声明来源钻瓜专利网。