[发明专利]空中多节点实时侦查的方法及系统有效
申请号: | 201710244162.3 | 申请日: | 2017-04-14 |
公开(公告)号: | CN108734655B | 公开(公告)日: | 2021-11-30 |
发明(设计)人: | 汪浩源;王旭光;吴华强 | 申请(专利权)人: | 中国科学院苏州纳米技术与纳米仿生研究所 |
主分类号: | G06T3/40 | 分类号: | G06T3/40;H04N5/262;H04N7/18 |
代理公司: | 深圳市铭粤知识产权代理有限公司 44304 | 代理人: | 孙伟峰 |
地址: | 215123 江苏省*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 空中 节点 实时 侦查 方法 系统 | ||
1.一种空中多节点实时侦查的方法,其特征在于,所述方法包括步骤:
通过多个飞行器获取视频并分别记录所述多个飞行器的位置信息,其中,所述多个飞行器中相邻两个的摄像头获取的视频部分重叠;
对所述飞行器获取的多路视频进行图像预处理,以获得预处理后的多路视频;
对所述预处理后的多路视频进行拼接,以获得拼接后的视频;
根据所述位置信息获取所述拼接后的视频中的目标区域或目标物体的跟踪视频;
其中,对所述预处理后的多路视频进行拼接,以获得拼接后的视频步骤包括:
对相邻两路视频的第帧图像的特征点进行粗匹配,以获得初始的特征点匹配对集合,其中,,为每一路视频所包含的图像帧的数目;
对初始的特征点匹配对集合进行细匹配得到内点集合;
根据内点集合计算得到变换矩阵;
利用变换矩阵将相邻两路视频的第帧图像分别投影到全景坐标系中;
对全景坐标系中的相邻两路视频的第帧图像进行融合,以获得拼接后的图像;
重复上面的步骤,将拼接后的图像与下一路视频再次进行拼接直到所有路视频均完成拼接,获得拼接后的视频;
其中,对初始的特征点匹配对集合进行细匹配得到内点集合步骤包括:
在初始的特征点匹配对集合中随机选取4个特征点匹配对;
计算4个特征点匹配对所对应的单应性矩阵;
计算初始的特征点匹配对集合中每一个特征点匹配对与单应性矩阵的投影误差,将投影误差小于设定的第二阈值的特征点匹配对形成的集合作为单应性矩阵的内点集合;
重复上面的步骤次,以获得个内点集合;
其中,根据内点集合计算得到变换矩阵步骤包括:
分别计算每个内点集合中像素点在方向的标准方差及方向的标准方差;
根据下面公式计算每个内点集合所对应的评分系数:
其中,表示第个内点集合中特征点匹配对的数目,为整数, ;
将评分系数最高的内点集合所对应的单应性矩阵作为变换矩阵。
2.根据权利要求1所述的空中多节点实时侦查的方法,其特征在于,图像预处理包括颜色校正和特征提取;和/或所述方法还包括:对所述目标区域或目标物体的跟踪视频进行显示。
3.根据权利要求1所述的空中多节点实时侦查的方法,其特征在于,对相邻两路视频的第帧图像的特征点进行粗匹配,以获得初始的特征点匹配对集合步骤包括:
利用最近邻匹配法在相邻两路视频中的第二路视频的第帧图像中找到与相邻两路视频中的第一路视频的第帧图像中的特征点所匹配的特征点;
计算相邻两路视频中的第一路视频的第帧图像中的特征点到特征点的距离,将距离小于设定的第一阈值的特征点形成的集合作为特征点的邻域;
将相邻两路视频中的第二路视频的第帧图像中以特征点为圆心,以第一阈值为半径的区域作为特征点的搜索区域,计算邻域中的每一个特征点与搜索区域中的所有特征点的距离,将搜索区域中与特征点的距离最短的特征点作为与特征点匹配的特征点;
重复上面的步骤直至在相邻两路视频中的第二路视频的第帧图像中找到相邻两路视频中的第一路视频的第帧图像中所有特征点所匹配的特征点,以获得初始的特征点匹配对集合。
4.根据权利要求1所述的空中多节点实时侦查的方法,其特征在于,根据所述位置信息获取所述拼接后的视频中的目标区域步骤包括:
确定目标区域及目标区域的缩放尺度;
根据目标区域获得目标区域所对应的飞行器的位置信息及摄像头的视场信息;
根据所述缩放尺度、位置信息及视场信息计算得到目标区域所对应的飞行器的飞行位置;
控制目标区域所对应的飞行器到达所述飞行位置,并拍摄得到所述目标区域。
5.根据权利要求1所述的空中多节点实时侦查的方法,其特征在于,根据所述位置信息获取所述拼接后的视频中的目标物体的跟踪视频步骤包括:
确定目标物体;
利用图像目标跟踪算法对目标物体进行识别和跟踪,以获得目标物体的实时位置信息;
根据目标物体的实时位置信息计算得到目标物体对应的飞行器的飞行位置;
控制目标物体所对应的飞行器到达所述飞行位置,并拍摄得到所述目标物体的跟踪视频。
6.一种空中多节点实时侦查的系统,其特征在于,包括多个飞行器、多个图像预处理单元、视频拼接单元、目标获取单元及显示单元;
所述多个飞行器分别用于获取视频并记录位置信息,其中,所述多个飞行器中相邻两个的摄像头获取的视频部分重叠;
所述多个图像预处理单元用于分别对所述多个飞行器获取的多路视频进行图像预处理,以获得预处理后的多路视频;
所述视频拼接单元用于对所述预处理后的多路视频进行拼接,以获得拼接后的视频;
所述目标获取单元用于根据所述位置信息获取所述拼接后的视频中的目标区域或目标物体的跟踪视频;
其中,所述视频拼接单元包括:
粗匹配模块,用于对相邻两路视频的第帧图像的特征点进行粗匹配,以获得初始的特征点匹配对集合,其中,,为每一路视频所包含的图像帧的数目;
细匹配模块,用于对初始的特征点匹配对集合进行细匹配得到内点集合;
计算模块,用于根据内点集合计算得到变换矩阵;
投影模块,用于利用变换矩阵将相邻两路视频的第帧图像分别投影到全景坐标系中;
融合模块,用于对全景坐标系中的相邻两路视频的第帧图像进行融合,以获得拼接后的图像。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院苏州纳米技术与纳米仿生研究所,未经中国科学院苏州纳米技术与纳米仿生研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710244162.3/1.html,转载请声明来源钻瓜专利网。
- 上一篇:绘图与定位方法、系统及计算机可读存储介质
- 下一篇:缩放处理方法及装置