[发明专利]一种基于改进Yolov5m模型和DeepSort的货车入库货物识别方法在审
申请号: | 202210649563.8 | 申请日: | 2022-06-09 |
公开(公告)号: | CN114882423A | 公开(公告)日: | 2022-08-09 |
发明(设计)人: | 李为相;孙圆;程明 | 申请(专利权)人: | 南京工业大学 |
主分类号: | G06V20/40 | 分类号: | G06V20/40;G06V20/10;G06V10/82;G06N3/04;G06N3/08 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 211816 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 改进 yolov5m 模型 deepsort 货车 入库 货物 识别 方法 | ||
本发明公开了一种基于改进Yolov5m模型和DeepSort的货车入库货物识别方法;由摄像头和货物识别单元组成,其中货物识别单元由货车追踪模块和目标检测模块组成;Yolov5m的改进方法为,标准卷积替换为深度可分离卷积,减少参数量;激活函数SiLU替换为GELU;Bottleneck的残差结构更换为倒置残差结构;损失函数CIoU替换为EIoU;优化器SGD替换为AdamW;由摄像头采集实时视频图像信息,并将其发送到货物识别单元;其中侧面摄像头采集数据并输入到货车追踪模块中,输出货车追踪结果;根据追踪结果校验货车位置,判断是否进入仓库;校验成功后,正面摄像头采集货物图像输入到目标检测模块中,输出识别结果。本发明采用的识别方法能够提高货物识别的准确率并实现实时检测。
技术领域
本发明涉及目标检测领域,具体为一种基于改进Yolov5m模型和DeepSort的货车入库货物识别方法。
背景技术
随着人工智能技术的快速发展,人们希望AI与使用者之间拥有更生动的交互方式,为使用者带来更好的用户体验。如今智慧物流发展迅速,物流仓储逐渐由人力分拣走向智能化,货物识别模块也从以前由工作人员识别货物逐渐发展为现在不需要人工的机器自动识别货物。利用视觉检测技术在普通的货车入库场景下对货物进行精确检测,能够降低成本,提高生产效率。
目前使用的货物识别方法主要有如下缺点:使用条形码识别方法较多,需要人工扫描条形码,无法实现实时处理;人工清点货物费时费力,需要反复核查,无法实现实时处理。这些缺点导致仓库货物清点耗费大量精力,也难以实现实时货物识别,因此有必要进行改进。
发明内容
本发明的目的在于提供一种基于改进Yolov5m模型和DeepSort的货车入库识别方法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:将图像训练数据集输入改进Yolov5m网络模型进行训练,得到目标检测模型;由摄像头采集实时视频图像信息,并将其发送到货物识别单元;货物识别单元包括货车追踪模块和目标检测模块,分别得到货车位置识别结果和携带货物识别结果,所述识别过程在训练好的改进Yolov5m网络模型上进行;所述货车位置识别结果进行校验,校验后得到货物识别结果作为最终的货物识别结果。
所述改进Yolov5m网络模型训练方法,具体包括:将训练集图像经过翻转、改变亮度、裁剪、平移、增加噪声等数据增强操作后,输入到改进的Yolov5m网络中,将损失函数更改为EIoU,优化器更改为AdamW并训练,可以获得目标检测模型。
所述改进Yolov5m网络实现方法,具体包括:对于Backbone中的结构,将标准卷积操作替换为深度可分离卷积操作,降低了网络参数量;将激活函数SiLU替换为GELU,提高了网络性能;为消除深度可分离卷积带来的耗时增加和发生过拟合,将网络残差结构替换为倒置残差结构。
所述实时货物识别方案,具体包括:由侧面摄像头采集视频图像信息,帧率设置为30帧,每一帧图像输入到货车追踪模块,由训练后的改进Yolov5m模型处理并输出识别结果;由DeepSort算法对输入识别结果进行货车追踪,输出货车位置信息;校验货车位置,到达指定区域时,由正面摄像头采集货物图像信息,图像输入到目标检测模块,由训练后的改进Yolov5m模型处理并输出识别结果。
所述货物识别单元,具体包括:货物识别单元包括货车追踪模块和目标检测模块,所述两个模块,货车追踪模块由训练好的改进Yolov5m网络模型和DeepSort目标追踪算法组成,输出为追踪货车标记ID,由对应ID位置信息校验对应货车所在位置;目标检测模块由训练好的改进Yolov5m网络模型组成,输出为在不同货物类型上的概率和数量。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京工业大学,未经南京工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210649563.8/2.html,转载请声明来源钻瓜专利网。