[发明专利]基于深度残差神经网络的非视域成像方法有效
申请号: | 202110572832.0 | 申请日: | 2021-05-25 |
公开(公告)号: | CN113393548B | 公开(公告)日: | 2022-12-09 |
发明(设计)人: | 卢孝强;陈跃;郑向涛;任玉涛 | 申请(专利权)人: | 中国科学院西安光学精密机械研究所 |
主分类号: | G06T11/00 | 分类号: | G06T11/00;G06T7/10;G06T7/13;G06N3/08;G06N3/04 |
代理公司: | 西安智邦专利商标代理有限公司 61211 | 代理人: | 郑丽红 |
地址: | 710119 陕西省西*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 神经网络 视域 成像 方法 | ||
1.一种基于深度残差神经网络的非视域成像方法,其特征在于,包括以下步骤:
步骤一、合成训练数据集图像对;
1.1)将数据集中的图像二值化后进行分块,裁剪得到边缘稀疏图像数据集;
1.2)使用边缘检测器对步骤1.1)中的边缘稀疏图像数据集进行检测处理,得到分块后图片块I;
1.3)对步骤1.2)得到的分块后图片块I做自相关运算,得到自相关图像corr,计算公式为:
其中,为傅里叶变换;为傅里叶逆变换;Real为取运算后的实部;
1.4)将自相关图像corr的像素区间归一化至阈值[0,255],得到归一化后自相关图像corr′,计算公式为;
corr′=corr/max(corr)*255
其中,max(corr)为自相关图中像素最大值;
1.5)给步骤1.4)获取的归一化后自相关图像corr′添加噪声,得到加噪自相关图像corrN;
1.6)将加噪自相关图像corrN和分块后图片块I进行合成,得到训练数据集图像对,计算公式为:
Final=[corrN,I]
其中,Final为训练数据集图像对;
步骤二、获取输出原图估计图像;
将步骤一中的训练数据集图像对输入至残差神经网络模型中,输出自相关图像corrN对应的原图估计图像
步骤三、构建目标损失函数;
选择分块后图片块I与步骤二所获取的原图估计图像组成二范数损失函数,该二范数损失函数为目标损失函数;
其中,loss为目标损失函数;
步骤四、对目标损失函数进行迭代优化求解,使得目标损失函数达到稳定状态,从而得到自相关图到原图的映射,残差神经网络模型训练完成;
步骤五、采集激光散斑图,对激光散斑图做自相关运算;
调整激光发射器的发射角度,CMOS相机采集带有可见表面物体上的激光散斑图,并对激光散斑图做自相关运算,得到自相关激光散斑图;
步骤六、将自相关激光散斑图输入步骤四训练好的残差神经网络模型,生成非视域目标图像,获取与激光散斑图相对应的原图。
2.根据权利要求1所述的基于深度残差神经网络的非视域成像方法,其特征在于骤,步骤四中,对目标损失函数进行优化后,还包括对残差神经网络模型进行定量测试和定性测试的步骤:
a)对残差神经网络模型进行定量测试;
将测试集中的图像输入训练后的残差神经网络模型中,计算图像的指标分数,指标分数为均方误差和PSNR峰值信噪比的大小,若指标分数达到要求,则执行下一步,若达不到要求,则返回步骤一;
b)对残差神经网络模型进行定性测试;
使用不同曝光时间的自相关图输入至残差神经网络模型中,测试残差神经网络模型对曝光时间的鲁棒性。
3.根据权利要求2所述的基于深度残差神经网络的非视域成像方法,其特征在于骤:步骤四中,对目标损失函数采用Adam优化方法训练,使得目标损失函数达到稳定状态。
4.根据权利要求1或2或3所述的基于深度残差神经网络的非视域成像方法,其特征在于骤:步骤1.1)中,数据集以伯克利分割数据集为基础,伯克利分割数据集图片数量为500张,其中,训练集的图片数量为450张,测试集图片数量为50张,裁剪得到边缘稀疏图像数据集的图片数量为27000张,像素大小为128×128。
5.根据权利要求4所述的基于深度残差神经网络的非视域成像方法,其特征在于骤:步骤1.2)中,边缘检测器为Canny边缘检测器,Canny边缘检测器的阈值设置为[0.1,0.6]。
6.根据权利要求5所述的基于深度残差神经网络的非视域成像方法,其特征在于骤:步骤1.5)中,给归一化后自相关图像corr′添加的噪声为高斯噪声。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院西安光学精密机械研究所,未经中国科学院西安光学精密机械研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110572832.0/1.html,转载请声明来源钻瓜专利网。