[发明专利]一种稳定精度测试方法、系统、介质、设备及终端在审
| 申请号: | 202210714927.6 | 申请日: | 2022-06-23 |
| 公开(公告)号: | CN115112296A | 公开(公告)日: | 2022-09-27 |
| 发明(设计)人: | 宋云彪;陈照海;王泽刚;肖志艳 | 申请(专利权)人: | 西安苏试广博环境可靠性实验室有限公司 |
| 主分类号: | G01M1/00 | 分类号: | G01M1/00;G01C11/02;G01C11/36;G06T7/10 |
| 代理公司: | 暂无信息 | 代理人: | 暂无信息 |
| 地址: | 710000 陕西省西*** | 国省代码: | 陕西;61 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 稳定 精度 测试 方法 系统 介质 设备 终端 | ||
1.一种稳定精度测试方法,其特征在于,所述稳定精度测试方法包括:
通过采集光电摄像头的原始视频图像数据,并对图像进行处理得到模板;对图像分别进行分割和二值化处理后,运用模板匹配法对视频进行识别,得到视频中每一帧图像的特征数据,再利用公式计算整段视频中的稳定精度数据。
2.如权利要求1所述的稳定精度测试方法,其特征在于,所述稳定精度测试方法还包括:
稳定平台上的光电摄像头跟踪相对运动的目标靶,采集到的光电摄像头输出原始视频分为以下两路进行后续工作:
(1)捕捉视频中单帧图像,通过对图像进行分割和二值化处理,将THRESH_OTSU、THRESH_BINARY两个函数组合使用,得到系列的目标模板,形成目标模板库;目标模板库的图像进行对比,选择最优的目标模板作为模板匹配的模板;
(2)根据方案选择待计算的视频段,将视频段分成单帧图像。
3.如权利要求1所述的稳定精度测试方法,其特征在于,所述稳定精度测试方法还包括:
(1)运用模板匹配法,利用matchTemplate函数,通过将模板图像在每一帧目标图像上滑动逐一对比,使用TM_SQDIFF_NORMED函数进行图像匹配,找到最合适的匹配部位,并进行归一化处理;
(2)运用minMaxLoc函数寻找矩阵中的最大值和最小值的匹配结果及位置,得到单帧图像中与模板识别到的特征数据或定位的坐标;将已知的光电摄像头的视场角代入公式中进行计算,得到一整段的稳定精度的数据。
4.如权利要求1所述的稳定精度测试方法,其特征在于,所述稳定精度测试方法包括以下步骤:
步骤一,采集稳定平台上光电摄像头跟踪目标靶时输出的原始视频数据;
步骤二,捕捉系列单帧图像,并对图像分别进行分割和二值化处理,得到目标模板库;同时截取合适长度的原始视频段,通过去除背景噪音、局部放大的方法对视频进行处理;
步骤三,选择效果最佳的目标模板作为模板,同时提取视频的每一帧图像,并对图像分别进行分割和二值化处理;
步骤四,运用模板匹配法,通过模板图像块和输入图像进行匹配,找到最合适的匹配部位并进行归一化处理,分析计算得到图像的特征数据;
步骤五,代入视场角,根据公式计算整段视频的稳定精度数值。
5.如权利要求4所述的稳定精度测试方法,其特征在于,所述步骤二中的对图像分别进行分割和二值化处理包括:
(1)接收捕捉的系列单帧图像,获取所述单帧图像的类别标签和二值化分割标签,并对所述单帧图像进行特征提取,得到训练数据集;
(2)通过预设的深度学习卷积神经网络得到目标热图,并根据所述目标热图和所述二值化分割标签,得到图像分割损失值;
(3)根据所述训练数据集和所述图像分割损失值对所述预设的深度学习卷积神经网络进行参数调整,进而完成模型的训练;
(4)利用训练得到的深度学习卷积神经网络模型,对捕捉的系列单帧图像分别进行分割和二值化处理,并输出处理结果。
6.如权利要求4所述的稳定精度测试方法,其特征在于,所述步骤五中的代入视场角,根据公式计算整段视频的稳定精度数值包括:
视频图像中相邻两帧图像中十字靶中心的位移偏差记为Δxi、Δyi,每秒计算1个稳定精度值,统计1min平均值;
每秒的稳定精度按以下公式计算:
其中,Δxi表示两帧图像中十字靶中心的方位偏差像素数;Δyi表示两帧图像中十字靶中心的俯仰偏差像素数;θx表示小视场的实测方位视场角,单位°;θy表示最小视场的实测俯仰视场角,单位°;X表示视场方位方向分辨率;Y表示视场俯仰方向分辨率;μxt表示方位稳定精度,单位mrad;μyt表示俯仰稳定精度,单位mrad;μt表示每秒的稳定精度,单位mrad;n表示总帧数;
稳定精度为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安苏试广博环境可靠性实验室有限公司,未经西安苏试广博环境可靠性实验室有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210714927.6/1.html,转载请声明来源钻瓜专利网。





