[发明专利]一种深度神经网络的CT图像超分辨重建方法有效
申请号: | 201810191685.0 | 申请日: | 2018-03-08 |
公开(公告)号: | CN108416821B | 公开(公告)日: | 2019-08-02 |
发明(设计)人: | 徐军;刘慧;郭强;张彩明 | 申请(专利权)人: | 山东财经大学 |
主分类号: | G06T11/00 | 分类号: | G06T11/00;G06T3/40 |
代理公司: | 济南舜昊专利代理事务所(特殊普通合伙) 37249 | 代理人: | 李舜江 |
地址: | 250000 山东*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明提供一种深度神经网络的CT图像超分辨重建方法,方法建立的卷积神经网络模型的每一层都是卷积操作,没有全连接层;并且可以通过改变网络模型的深度和每一层的宽度来平衡效率与运行速度。将深度卷积神经网络应用在医学CT图像超分辨重建上,引入反卷积层,激活函数采用PReLU,有效地建立了一个低\高分辨率图像之间端到端的映射,在一定程度上提高了CT图像的分辨率;在保证相同训练数据量的前提下,在运行速度和图像恢复质量等方面均体现出了明显的优势。结果显示,本发明的方法用在医学CT图像超分辨重建上具有良好的稳定性和鲁棒性。 | ||
搜索关键词: | 超分辨 卷积神经网络 重建 医学CT图像 神经网络 稳定性和鲁棒性 高分辨率图像 训练数据量 激活函数 平衡效率 图像恢复 网络模型 反卷积 连接层 有效地 分辨率 映射 卷积 引入 应用 保证 | ||
【主权项】:
1.一种深度神经网络的CT图像超分辨重建方法,其特征在于,方法包括:对CT图像集合中的每一幅CT图像X,采用双三次插值算法按照预设参数scale执行一次下采样,得到了一幅大小是原图像1/scale2的模糊图像,所述模糊图像设为Y;CT图像X作为Y的标签,CT图像X与模糊图像Y一一对应;将CT图像集合中每一幅CT图像X和模糊图像Y,按照预设步长,划分为n×n和m×m大小的图像块;图像的放大倍数为与所述预设参数scale相等,且与反卷积层的步长相等;将CT图像X的图像块随机打乱顺序,将模糊图像Y的图像块随机打乱顺序,CT图像X与模糊图像Y对应关系不变;通过公式(1)中Fconv_1(Y)对CT图像Y进行反卷积操作得到反卷积层;Fconv_1(Y)代表反卷积操作得到的反卷积层特征图,其中,Fconv_1(Y)通过对输入层中的一系列图像块进行反卷积计算得到的,U表示上采样操作,W1是一个f1×f1×n1大小的反卷积核,n1表示反卷积层特征图的数量,偏置向量B1是一个n1维的向量;s和p是上采样过程中的步长和边界填充值;Fconv_1(Y)=Us,p(Y,W1)+B1 (1)反卷积层的激活函数选用PReLU,公式如(2)所示:f(x)=max(x,0)+αmin(0,x) (2)式中α为负数部分的系数,PReLU是带参数的ReLU;反卷积层的输出为:F1(Y)=max(0,Fconv_1(Y))+α1min(0,Fconv_1(Y)) (3)对反卷积层特征图进行多层卷积操作,使反卷积层形成至输出层特征图;卷积的函数操作Fconv_i如下:Fconv_i(Y)=Wi*Fi‑1(Y)+Bi (4)i表示层的索引,Wi表示i‑1层到i层卷积操作的卷积核,也就是滤波器模板的值,Bi表示偏置量,*表示卷积操作;Wi是一个ni‑1×fi×fi×ni维数据,一次卷积操作中ni‑1为通道数;ni则为滤波器个数;Bi偏置量则是一个ni维的特征向量;所有卷积层的激活函数都是PReLU;所以每一层的输出为:Fi(Y)=max(0,Fconv_i(Y))+αimin(0,Fconv_i(Y)) (5)输出层的特征图像,是由前一层的一系列特征图重建成一幅高分辨率图,在重建过程中,重叠部分采用平均值,重建图像期望与原始图像X相似;优化参数Wi、Bi和α,优化参数时采用均方差误差(Mean Squared Error,MSE)作为损失函数,
公式(6)中,θ={Wi,Bi,αi},n表示样本的数目,Xi表示高分辨率图像,Yi表示输入的图像;采用梯度下降法最小化公式(6),沿着梯度下降的最快方向找到最小值,以此来调整预设参数Wi、Bi和α的值,得到网络模型最优的超参数。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于山东财经大学,未经山东财经大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201810191685.0/,转载请声明来源钻瓜专利网。