[发明专利]一种基于生成网络的CT超分辨重建方法、系统及装置有效
| 申请号: | 202211435386.X | 申请日: | 2022-11-16 |
| 公开(公告)号: | CN115578263B | 公开(公告)日: | 2023-03-10 |
| 发明(设计)人: | 李劲松;高艺伟;胡佩君;周天舒;田雨 | 申请(专利权)人: | 之江实验室 |
| 主分类号: | G06T3/40 | 分类号: | G06T3/40;G06T5/00 |
| 代理公司: | 北京志霖恒远知识产权代理有限公司 11435 | 代理人: | 戴莉 |
| 地址: | 311121 浙江*** | 国省代码: | 浙江;33 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 生成 网络 ct 分辨 重建 方法 系统 装置 | ||
1.一种基于生成网络的CT超分辨重建方法,其特征在于:包括以下步骤:
步骤1、采集原始CT图像数据并通过基于全变差的超分辨重建算法进行预处理,得到待重建的图像,将其与随机噪声结合输入生成网络,增强生成网络的鲁棒性;
步骤2、生成网络利用非线性生成函数对预处理得到的图像进行重建,得到高分辨率CT图像,并输入退化网络;
步骤3、退化网络通过刚体变换矩阵、切片编码矩阵、下采样矩阵对高分辨率CT图像进行处理,并添加高斯噪声,得到低分辨率CT图像;
步骤4、生成网络和退化网络共同影响损失函数,并在反向传播中对生成网络进行参数更新,退化网络保持不变,主要包括:将退化网络得到的低分辨率CT图像和原始数据进行对比,并用欧几里得范数进行约束,加入到生成网络的损失函数中;针对重建的高分辨率CT图像计算其全变差正则项,并采用稀疏规则算子进行约束,加入到损失函数中,用于提高高分辨率CT图像的清晰度,保留图像边缘的细节;用Adam算法对损失函数进行梯度计算,实现对生成网络中参数的更新。
2.如权利要求1所述的一种基于生成网络的CT超分辨重建方法,其特征在于:所述步骤1中获得所述待重建的图像的具体子步骤为:
步骤1.1:低分辨率的原始CT图像通过基于全变差的超分辨重建算法得到初始的高分辨率CT图像,基于全变差的超分辨重建算法中包括几何变换矩阵、运动模糊矩阵及采样矩阵;
步骤1.2:通过初始的高分辨率CT图像及其像素点坐标,得到每张CT切片在x和y方向上的梯度变换;
步骤1.3:通过初始的高分辨率CT图像在x和y方向上的梯度变换,得到其全变差正则项;
步骤1.4:将上述全变差正则项加入基于全变差的超分辨重建算法的损失函数中,采用梯度下降法对损失函数进行不断的优化,以获得其最小值,得到待输入生成网络进行重建的图像。
3.如权利要求1所述的一种基于生成网络的CT超分辨重建方法,其特征在于:所述步骤1中,所述随机噪声服从高斯分布,每个元素独立地从中提取,噪声的大小由参数控制,若不需要高斯噪声,则=0。
4.如权利要求1所述的一种基于生成网络的CT超分辨重建方法,其特征在于:所述步骤2中生成网络提前在相同目标区域的CT数据上进行预训练,加快针对具体患者进行参数微调时的收敛速度,提高重建效果;获取个体患者的N张低分辨的原始CT图像数据,用于训练生成网络来实现CT超分辨重建,可实现对个体患者量身定制CT超分辨重建系统。
5.如权利要求1所述的一种基于生成网络的CT超分辨重建方法,其特征在于:所述步骤3中,通过将第k张低分辨率的原始CT图像与第一张原始CT图像对齐来计算第k个刚体变换矩阵的值。
6.如权利要求1所述的一种基于生成网络的CT超分辨重建方法,其特征在于:所述步骤3中,重建后的所述高分辨率CT图像的切片厚度小于得到的所述低分辨率CT图像的切片厚度,在高分辨率CT图像通过退化网络得到低分辨率CT图像时,每张所述低分辨率CT图像对应所述高分辨率CT图像中的多张CT切片进行操作,通过引入切片编码矩阵对所述高分辨率CT图像进行z方向上切片分布的选择,并选用具有宽底和窄中心峰的高斯分布表示切片编码矩阵,切片编码矩阵的半峰全宽为在Z方向的体素。
7.如权利要求1所述的一种基于生成网络的CT超分辨重建方法,其特征在于:所述步骤3中,所述下采样在频域中进行,在进行频域下采样前使用低通滤波器截断所有高频成分,避免信号混叠。
8.如权利要求1所述的一种基于生成网络的CT超分辨重建方法,其特征在于:所述步骤3中,对重建后的所述高分辨率CT图像的信噪比进行计算,所述高分辨率CT图像中的噪声通过图像区域和背景的标准差来衡量,若信噪比大于三,此时的噪声类似高斯分布,并在退化过程中加入遵循相同高斯分布的噪声;若信噪比小于等于三,则不额外添加噪声。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于之江实验室,未经之江实验室许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211435386.X/1.html,转载请声明来源钻瓜专利网。





