[发明专利]一种平养鸡舍黄羽鸡多目标跟踪方法在审
申请号: | 202110793190.7 | 申请日: | 2021-07-13 |
公开(公告)号: | CN113470076A | 公开(公告)日: | 2021-10-01 |
发明(设计)人: | 殷正凌;邹修国;赵中豪;郭宋;张妮;仝曦熳;时逸舟;韩璐 | 申请(专利权)人: | 南京农业大学 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06N3/04;G06N3/08 |
代理公司: | 南京瑞华腾知识产权代理事务所(普通合伙) 32368 | 代理人: | 钱丽 |
地址: | 210000 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 养鸡 舍黄羽鸡 多目标 跟踪 方法 | ||
1.一种平养鸡舍黄羽鸡多目标跟踪方法,其特征在于,包括:
步骤1,构建目标检测数据集和多目标跟踪数据集;
步骤2,利用目标检测数据集训练改进YOLOv3模型,作为多目标跟踪的检测器;所述改进YOLOv3模型包括MobileNetV2主干网络和与主干网络连接的3个检测分支,所述MobileNetV2中Inverted residual模块与深度残差收缩网络相结合组成DRSN-Invertedresidual模块,以形成主干网络DRSN-MobileNetV2,所述3个检测分支上分别插有1个CBAM模块,所述改进YOLOv3模型并采用SE模块将特征金字塔的高层中提取到的信息以相乘的方式融合到浅层网络,以深层网络的语义信息引导低层网络的语义提取;
步骤3,结合训练后的改进YOLOv3模型与Deep SORT模型,实现黄羽鸡的多目标实时跟踪。
2.根据权利要求1所述的平养鸡舍黄羽鸡多目标跟踪方法,其特征在于,所述步骤3具体包括:
采集平养鸡舍内的俯视视频,使用OpenCV将视频处理成视频帧,然后使用改进YOLOv3模型提取出深度特征得到候选框,得到目标的位置及深度特征,使用非极大值抑制算法去除重叠框,得到当前帧的检测框;
通过卡尔曼滤波构建运动模型,对目标的运动状态进行预测,以得到当前帧的跟踪预测框,使用8个参数描述目标的位置和运动信息,分别为跟踪预测框的中心坐标(μ,v),长宽比γ,高度h和它们各自在图像坐标中的速度信息将当前帧的检测框与跟踪预测框进行加权平均,最终得到目标在当前帧的运动信息;
融合外观信息和运动信息使用级联匹配策略进行目标关联,其中,运动信息关联包括:使用马氏距离计算所述检测框和跟踪预测框之间的距离d(1)(i,j)为:
其中dj表示第j个检测框的位置,yi表示第i个跟踪预测框的位置,Si代表了最终检测框的位置与平均跟踪预测框的位置之间的协方差矩阵,T表示转置,若求得的马氏距离小于指定的阈值t(1),则此次运动状态关联视为成功;
外观信息关联包括:为第i个追踪器建立一个特征向量的集合Ri,保留过去Lk次成功跟踪后的目标的检测框对应的特征向量,当第i个追踪器的集合内的特征向量和第j个物体检测框对应的特征向量之间的最小余弦距离小于或等于特定阈值t(2)时,则认为两者的外观信息关联,所述最小余弦距离的计算方式如下:
级联匹配之后,对未匹配的检测框、未确认状态的跟踪预测框和未匹配的跟踪预测框进行IOU匹配,若匹配成功,则更新卡尔曼滤波器。
3.根据权利要求1所述的平养鸡舍黄羽鸡多目标跟踪方法,其特征在于,构建目标检测数据集包括:
采集多张平养鸡舍内的俯视图像,在LabelImg软件中使用矩形框对所述图像中的黄羽鸡进行标注,标注生成的标签信息包括矩形框主对角线上两点的坐标,以反映出黄羽鸡的中心位置和宽高。
4.根据权利要求3所述的平养鸡舍黄羽鸡多目标跟踪方法,其特征在于,采用Mosaic数据增强方法对目标检测数据集中的图像进行处理,每次读取多张图像,对每次读取的多张图像处理后拼接为一张图像,并以拼接后的图像构建形成目标检测数据集。
5.根据权利要求4所述的平养鸡舍黄羽鸡多目标跟踪方法,其特征在于,对所述多张图像处理包括分别对多张图像进行翻转、缩放和色域变化处理。
6.根据权利要求4或5所述的平养鸡舍黄羽鸡多目标跟踪方法,其特征在于,所述多张图像包括4张图像。
7.根据权利要求1所述的平养鸡舍黄羽鸡多目标跟踪方法,其特征在于,构建多目标跟踪数据集包括:
使用实际场景下的监控视频来验证随时间的追踪效果,从中挑选出黄羽鸡群活跃程度较高,位置变化较大的视频片段作为测试视频,使用DarkLabel软件对测试视频进行标注,根据标注过程中的不同标号来区分不同个体。
8.根据权利要求1所述的平养鸡舍黄羽鸡多目标跟踪方法,其特征在于,所述步骤2具体包括:
对改进YOLOv3模型预设9个锚框,并以每3个锚框为一组,作为3个检测层的默认锚框;
在检测过程中,每个检测层将图像划分为S×S的网格,待测物体的中心坐标落在某个网格中,则该网格负责预测该目标;
设定网格位置为(Cx,Cy),其中,Cx为网格的左上角在x轴的坐标值,Cy为网格的左上角在y轴上的坐标值;
网格负责预测的边界框表示为(tx,ty,tw,th,C),其中(tx,ty)是该边界框中心位置相对网格左上角的相对坐标,(tw,th)为边界框的宽高对于锚框的宽高(Pw,Ph)的缩放因子,C为边界框的置信度;
预测的边界框坐标信息和宽高定义式为:
bx=σ(tx)+Cx
by=σ(ty)+Cy
其中,bx,by为边界框的中心坐标,bw,bh分别为边界框的宽和高,σ为sigmoid激活函数,Pw,Ph分别为锚框的宽和高,e为指数;
将目标检测数据集标注的矩形框的中心坐标与宽高映射到特征图上得到gx,gy,gw,gh与bx,by,bw,bh构成边界框损失,矩形框置信度与预测边界框置信度C构成置信度损失;
将边界框损失、置信度损失共同构成损失函数,通过反向传播不断优化模型权值使损失函数收敛于阈值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京农业大学,未经南京农业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110793190.7/1.html,转载请声明来源钻瓜专利网。