[发明专利]基于视频融合的无人巡检方法、系统、装置和存储介质有效
申请号: | 201911225815.9 | 申请日: | 2019-12-04 |
公开(公告)号: | CN111083438B | 公开(公告)日: | 2021-05-25 |
发明(设计)人: | 李新福 | 申请(专利权)人: | 广东康云科技有限公司 |
主分类号: | H04N7/18 | 分类号: | H04N7/18;H04N13/275;G07C1/20 |
代理公司: | 广州嘉权专利商标事务所有限公司 44205 | 代理人: | 黎扬鹏 |
地址: | 510000 广东省广州*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 视频 融合 无人 巡检 方法 系统 装置 存储 介质 | ||
1.一种基于视频融合的无人巡检方法,其特征在于,包括以下步骤:
建立场景的三维模型;
采集场景的固定视频数据和/或移动视频数据并通过5G进行上传;所述固定视频数据和移动视频数据是由摄像头对准预设的点、线、面或区域拍摄得到的,或者是由摄像头进行360°全景拍摄得到的;
采用纹理映射技术,将所述固定视频数据和/或移动视频数据与所述三维模型进行融合;
播放融合所得的三维画面;
根据所述三维画面生成巡检报告;
将所述固定视频数据和/或移动视频数据与所述三维模型进行融合这一步骤,具体包括:
对固定视频数据和移动视频数据进行相互的几何校正;
将经过校正的所述固定视频数据和移动视频数据与所述三维模型进行拼接融合;
所述对固定视频数据和移动视频数据进行相互的几何校正这一步骤,具体包括:
获取所述固定视频数据的第一几何校正结果;
将所述第一几何校正结果与所述移动视频数据进行拼接融合,计算第一拼接误差;
获取所述移动视频数据的第二几何校正结果;
将所述第二几何校正结果与所述固定视频数据进行拼接融合,计算第二拼接误差;
在所述第一拼接误差小于所述第二拼接误差的情况下,以所述第一几何校正结果作为对所述固定视频数据的最终几何校正结果,以所述移动视频数据与所述第二几何校正结果的平均值作为对所述移动视频数据的最终几何校正结果;
在所述第二拼接误差小于所述第一拼接误差的情况下,以所述固定视频数据与所述第一几何校正结果的平均值作为对所述固定视频数据的最终几何校正结果,以所述第二几何校正结果作为对所述移动视频数据的最终几何校正结果。
2.根据权利要求1所述的无人巡检方法,其特征在于,所述建立场景的三维模型这一步骤,具体包括:
持续扫描场景的三维数据;
对持续扫描所得的三维数据按照扫描时间轴进行记录;
计算出各时刻扫描所得的三维数据的质量评分;
根据各所述质量评分,选择出最优的三维数据;
根据所述最优的三维数据生成并存储三维模型。
3.根据权利要求1所述的无人巡检方法,其特征在于,所述采集场景的固定视频数据和/或移动视频数据并通过5G进行上传这一步骤,具体包括:
确定所要采集的全景视频的视角范围;
采集场景的固定视频数据,计算出所述固定视频数据覆盖的视角范围;
根据所述全景视频的视角范围和所述固定视频数据的视角范围,计算出所要采集的移动视频数据的视角范围;
按照计算所得的视角范围采集移动视频数据。
4.根据权利要求1所述的无人巡检方法,其特征在于,所述播放融合所得的三维画面这一步骤,具体包括:
生成多个播放窗口;
将所述三维画面分解成多个部分,各部分分别与各所述固定视频数据和移动视频数据对应;
将所述三维画面的各部分分别在一个所述播放窗口中进行播放。
5.根据权利要求1-4任一项所述的无人巡检方法,其特征在于,所述建立场景的三维模型这一步骤与所述采集场景的固定视频数据和/或移动视频数据并通过5G进行上传这一步骤是同步进行的。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广东康云科技有限公司,未经广东康云科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911225815.9/1.html,转载请声明来源钻瓜专利网。