[发明专利]模型训练方法、眼底图像生成方法、模型评估方法及装置在审
| 申请号: | 202110633931.5 | 申请日: | 2021-06-07 |
| 公开(公告)号: | CN113486925A | 公开(公告)日: | 2021-10-08 |
| 发明(设计)人: | 刘从新;王斌;赵昕;和超;张大磊 | 申请(专利权)人: | 北京鹰瞳科技发展股份有限公司;上海鹰瞳医疗科技有限公司 |
| 主分类号: | G06K9/62 | 分类号: | G06K9/62;G06T7/10 |
| 代理公司: | 北京润泽恒知识产权代理有限公司 11319 | 代理人: | 莎日娜 |
| 地址: | 100048 北京市海*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 模型 训练 方法 眼底 图像 生成 评估 装置 | ||
本发明公开了一种模型训练方法、眼底图像生成方法、模型评估方法及装置,该模型训练方法包括:获取第一训练集,其中,第一训练集中包括多个样本眼底图像;生成各样本眼底图像的血管分割图,其中,血管分割图为二值图;对于每个样本眼底图像,将样本眼底图像中各像素点RGB三通道的像素值与其血管分割图中对应位置像素点的像素值进行合并处理,得到四通道的图像;将四通道的图像输入至预先构建的初始网络模型中,进行模型训练,得到目标网络模型,其中,初始网络模型的网络超参数至少包括引导强度,该引导强度用于启发网络模型基于四通道的图像中的血管信息生成新的眼底图像中的血管,目标网络模型用于生成新的眼底图像。
技术领域
本发明涉及医疗图像处理领域,特别涉及一种模型训练方法、眼底图像生成方法、模型评估方法及装置。
背景技术
目前,通常的机器学习乃至深度学习的模型可分为鉴别式模型和生成式模型,其中,鉴别式模型基于对监督信号的学习,能对输入的数据给出区分性的预测,例如,计算机视觉中的分类、检测和分割;而生成式模型可不依赖特定的监督信号,直接学习训练集的数据分布,然后可无限地生成符合此分布的数据。
如果生成的数据高保真,会衍生出很多有价值的应用可能性。以医学图像为例,医学图像,特别是包含罕见病病例的医学图像,具有天然的稀缺性。如果能利用生成式模型产生大量的病例医学图像,无疑会对医学图像识别和理解有很大用处,例如,有助于进行数据扩增以丰富训练集、用生成的图像进行医学知识培训或展示,以避免隐私泄露,以及分析模型隐空间的语义结构,进行疾病演化的研究或预后诊断。
现有技术中,生成式模型所生成的眼底图像,虽然细节已很真实,但血管结构却出乎意料地混乱,不符合医学常识,例如,有些动脉或静脉没有联通,没有来源凭空出现血管段,动静脉混杂等。因此,如何生成高质量的眼底图像成为本领域技术人员亟待解决的技术问题。
发明内容
本发明实施例提供一种模型训练方法、眼底图像生成方法、模型评估方法及装置,以解决现有技术中所生成的眼底图像的图像质量较低的技术问题。
根据本发明的第一方面,公开了一种模型训练方法,所述方法包括:
获取第一训练集,其中,所述第一训练集中包括多个样本眼底图像;
生成各样本眼底图像的血管分割图,其中,所述血管分割图为二值图;
对于每个样本眼底图像,将样本眼底图像中各像素点RGB三通道的像素值与其血管分割图中对应位置像素点的像素值进行合并处理,得到四通道的图像;
将所述四通道的图像输入至预先构建的初始网络模型中,进行模型训练,得到目标网络模型,其中,所述初始网络模型的网络超参数至少包括引导强度,所述引导强度用于启发网络模型基于四通道的图像中的血管信息生成新的眼底图像中的血管,所述目标网络模型用于生成新的眼底图像。
可选地,作为一个实施例,所述初始网络模型为基于生成式对抗网络GAN构建的网络模型。
可选地,作为一个实施例,所述血管分割图中每个像素点的像素值为0或1;
所述四通道的图像中每个像素点的像素值为[r,g,b,m*s*U],其中,r为样本眼底图像中像素点的R通道的像素值,g为G通道的像素值,b为B通道的像素值,m为血管分割图中对应位置像素点的像素值,s为所述引导强度,U为255。
根据本发明的第二方面,公开了一种眼底图像生成方法,用于基于第一方面中的目标网络模型生成新的眼底图像,所述方法包括:
接收原始眼底图像;
生成所述原始眼底图像的血管分割图;
将所述原始眼底图像中各像素点RGB三通道的像素值与其血管分割图中对应位置像素点的像素值进行合并处理,得到四通道的第一图像;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京鹰瞳科技发展股份有限公司;上海鹰瞳医疗科技有限公司,未经北京鹰瞳科技发展股份有限公司;上海鹰瞳医疗科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110633931.5/2.html,转载请声明来源钻瓜专利网。





