[发明专利]基于分布式相机网络的多视图多目标跟踪方法及系统有效
申请号: | 201911012807.6 | 申请日: | 2019-10-23 |
公开(公告)号: | CN110782483B | 公开(公告)日: | 2022-03-15 |
发明(设计)人: | 刘国良;和立;田国会 | 申请(专利权)人: | 山东大学 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;H04N7/18 |
代理公司: | 济南圣达知识产权代理有限公司 37221 | 代理人: | 黄海丽 |
地址: | 250061 山东*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 分布式 相机 网络 视图 多目标 跟踪 方法 系统 | ||
1.基于分布式相机网络的多视图多目标跟踪方法,其特征是,包括:
获取分布式相机网络中的每台相机采集的当前帧视图;
从所述当前帧视图中提取被检测目标的矩形边界框;
利用预先训练好的卷积神经网络,从矩形边界框内部图像中提取被检测目标的视觉外观信息;将被检测目标在当前帧视图中的图像坐标转换为地面坐标;
输出步骤:基于被检测目标的视觉外观信息和地面坐标构建数据关联矩阵;采用匈牙利算法对数据关联矩阵进行处理,输出当前帧视图内被检测目标与已知轨迹的匹配成功或匹配失败的结果。
2.如权利要求1所述的方法,其特征是,所述输出步骤的具体步骤包括:
计算被检测目标的地面坐标与当前帧视图中的各个存储轨迹终点坐标之间的马氏距离;
计算被检测目标的视觉外观信息与当前帧视图的相邻前M帧的视觉外观信息之间的M个余弦距离;选取M个余弦距离中的最小值,作为最终的余弦距离并进行保存;
当马氏距离和最终的余弦距离均小于设定阈值时,则将马氏距离和最终的余弦距离进行加权求和,得到数据关联矩阵;
将数据关联矩阵输入到匈牙利算法中,匈牙利算法输出当前帧视图内被检测目标与已知轨迹的匹配成功或匹配失败的结果。
3.如权利要求1所述的方法,其特征是,所述方法,还包括:
如果当前相机中存在匹配成功的被检测目标的图像坐标信息与对应的轨迹编号ID;则将当前相机中匹配成功的信息与相邻相机中关联成功的信息反复迭代进行交换,计算平均一致性,得到收敛的信息向量和收敛的信息矩阵;
基于收敛的信息向量和收敛的信息矩阵,计算后验位姿信息;至此,实现多视图多目标跟踪;然后,预测下一帧视图的被检测目标的位置信息。
4.如权利要求3所述的方法,其特征是,所述方法,还包括:
如果当前相机中存在匹配失败的被检测目标的地面坐标与对应的轨迹编号ID;则计算当前相机中匹配失败的被检测目标的坐标信息与剩余其他相机拍摄的视图中的各个存储轨迹终点坐标信息之间的欧式距离;
若欧式距离小于设定阈值,则将当前相机中被检测目标的地面坐标与剩余其他相机拍摄的视图中对应的轨迹进行匹配。
5.如权利要求3所述的方法,其特征是,从所述当前帧视图中提取被检测目标的矩形边界框,是利用YOLOv3网络,从所述当前帧视图中提取被检测目标的矩形边界框。
6.如权利要求3所述的方法,其特征是,预先训练好的卷积神经网络的具体训练步骤包括:
构建卷积神经网络;构建训练集;所述训练集为已知视觉外观信息的图像;
将训练集输入到卷积神经网络中,对卷积神经网络进行训练;
得到训练好的卷积神经网络。
7.如权利要求1所述的方法,其特征是,将被检测目标在当前帧视图中的图像坐标转换为地面坐标;具体步骤包括:
使用图像中人物的边界框底边中点的像素坐标作为人物的位置信息,通过一个单应性矩阵转化为地面坐标,单应性矩阵是通过相机标定而来的。
8.基于分布式相机网络的多视图多目标跟踪系统,其特征是,包括:
获取模块,其被配置为:获取分布式相机网络中的每台相机采集的当前帧视图;
预处理模块,其被配置为:从所述当前帧视图中提取被检测目标的矩形边界框;
提取模块,其被配置为:利用预先训练好的卷积神经网络,从矩形边界框内部图像中提取被检测目标的视觉外观信息;将被检测目标在当前帧视图中的图像坐标转换为地面坐标;
输出模块,其被配置为:基于被检测目标的视觉外观信息和地面坐标构建数据关联矩阵;采用匈牙利算法对数据关联矩阵进行处理,输出当前帧视图内被检测目标与已知轨迹的匹配成功或匹配失败的结果。
9.一种电子设备,其特征是,包括存储器和处理器以及存储在存储器上并在处理器上运行的计算机指令,所述计算机指令被处理器运行时,完成权利要求1-7任一项方法所述的步骤。
10.一种计算机可读存储介质,其特征是,用于存储计算机指令,所述计算机指令被处理器执行时,完成权利要求1-7任一项方法所述的步骤。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于山东大学,未经山东大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911012807.6/1.html,转载请声明来源钻瓜专利网。