[发明专利]基于稠密神经网络和双参数损失函数的超分辨率重建方法在审
申请号: | 201810535696.6 | 申请日: | 2018-05-29 |
公开(公告)号: | CN108765291A | 公开(公告)日: | 2018-11-06 |
发明(设计)人: | 褚晶辉;张佳祺;吕卫 | 申请(专利权)人: | 天津大学 |
主分类号: | G06T3/40 | 分类号: | G06T3/40;G06T7/13;G06T7/40;G06N3/08 |
代理公司: | 天津市北洋有限责任专利代理事务所 12201 | 代理人: | 吴学颖 |
地址: | 300072*** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 超分辨率重建 损失函数 网络结构 双参数 稠密 神经网络 神经网络结构 单帧图像 局部特征 模型训练 全局特征 数据准备 图像重建 优化训练 纹理 卷积 浅层 算法 图像 应用 | ||
1.一种基于稠密神经网络和双参数损失函数的超分辨率重建方法,其特征在于,包括以下步骤:
步骤一,数据准备
(a)划分数据集:采用公开数据集DIV2K,该数据集包含800张训练图、100张验证图和100张测试图,其中,100张验证图用于测试重建效果,800张训练图、100张验证图都是由高分辨率图像和其相应的低分辨率图像组成,低分辨率图像是高分辨率图像经由降质模型生成的;
(b)将800张训练图无重叠的分成96×96大小的图像块,作为网络输入;
步骤二,网络结构搭建
(a)将96×96大小的低分辨率图像块输入一个7×7的卷积层,并采用ReLU(RectifiedLinear Units)作为激活函数;
(b)7×7卷积层的输出特征图输入多连接结构块;
(c)堆叠多连接结构块;
(d)将最后一个多连接结构块的输出特征图输入一个1×1卷积层,降低特征图的维数;
(e)采用一个跳层,将7×7卷积层输出的特征图和1×1卷积层降维后的特征图堆叠起来,共同作为放大模块的输入;
(f)采用低分辨率特征图按次序拼接成高分辨率特征图的方法,将低分辨率特征图放大到一定倍数;
(g)采用一个1×1卷积层将特征图限定为RGB三个通道,并采用Tanh激活函数;
步骤三,模型训练
(a)学习率设为10-3,并且每75000次迭代学习率减小一半,直到误差不再减小或者250000次迭代后,停止训练;
(b)采用一个双参数函数作为损失函数,即双参数损失函数,优化模型训练;
(c)采用ADAM优化方法,β1=0.9,β2=0.999;
步骤四,图像重建
输入任意大小的低分辨率图像,加载训练好的模型,输出重建的高分辨率图像。
2.根据权利要求1所述的基于稠密神经网络和双参数损失函数的超分辨率重建方法,其特征在于,步骤二中每个多连接结构块均由一个1×1卷积层接一个3×3卷积层和一个恒等映射组成,并且每个卷积层都采用ReLU作为激活函数;每个多连接结构块中的恒等映射,是一个输入到输出的连接,直接将上一个多连接结构块的输出作为下一个多连接结构块的输入。
3.根据权利要求1所述的基于稠密神经网络和双参数损失函数的超分辨率重建方法,其特征在于,步骤三中将高分辨率图像记为IHR,重建图像记为ISR,则其逐像素误差记为r=ISR-IHR,双参数损失函数表示为,
其中,ρ(α)=max(1,2-α),α和β表示两个可连续取值的参数,通过微调α和β表示一系列的损失函数,包含L1范数、L2范数常见的损失函数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津大学,未经天津大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810535696.6/1.html,转载请声明来源钻瓜专利网。