[发明专利]一种用于超声影像的聚类和风格迁移的方法在审
申请号: | 202010382003.1 | 申请日: | 2020-05-08 |
公开(公告)号: | CN111723840A | 公开(公告)日: | 2020-09-29 |
发明(设计)人: | 高洁;申嘉男;喻梅;于瑞国;李雪威;刘志强;贾天豪 | 申请(专利权)人: | 天津大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06K9/40;G06N3/04 |
代理公司: | 天津市三利专利商标代理有限公司 12107 | 代理人: | 张义 |
地址: | 300072*** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 用于 超声 影像 风格 迁移 方法 | ||
本发明公开了一种用于超声影像的聚类和风格迁移的方法,包含以下步骤:步骤一:数据预处理,将超声影像转换为数据向量;步骤二:使用三种聚类算法:K‑means聚类算法、凝聚层次聚类算法和谱聚类算法进行对比实验,选择最优算法;步骤三:根据聚类实验结果,选择风格差异较大的图像;步骤四:基于CycleGAN对网络结构以及损失函数进行设计;步骤五:针对良恶性数据集设计风格迁移实验,并对实验结果进行分析。本发明设计的聚类和风格迁移的算法均有效地避免了噪声对于实验结果的影响,表现出了所使用方法对于噪声图像数据的适应性。
技术领域
本发明属于机器学习和图像风格迁移技术领域,涉及图像的聚类和风格迁移算法,尤其涉及一种用于超声影像的聚类和风格迁移的方法。
背景技术
聚类是指将一组对象分成由这些对象组成的多个类的过程,与分类不同,聚类在划分类别时不是根据已知的信息将对象划分成不同的类别,而是划分成未知特征的类。基于层次的聚类方法的核心思想是把数据对象构建成一棵树,除了叶子节点外的每个节点都是由其子树的并集构成,根节点包含所有的数据对象。层次分解的过程一般分为两类:凝聚法,即从叶子节点开始每次合并距离最近的两个节点,直到节点中包含所有的数据对象为止;分裂法,即先将所有的数据对象看作一个类,用一个节点表示所有的数据对象,通过迭代每次对节点进行分割,直至每个节点都只包含一个数据对象为止。
风格迁移是指将一种特殊风格的图像转换成另一种风格的过程,如将白天的景色转换成夜晚的景色。
生成式对抗网络(Generative Adversarial Networks,GAN)是一种深度学习的模型。该模型由一个生成模型(Generative Model)G和一个判别模型(DiscriminativeModel)D构成,通过两者之间相互地博弈来达到良好的输出结果。G的主要功能是通过一系列的输入数据,来生成不在原数据集中的新数据G(X);D的主要功能是判别G(X)是否是可以符合原数据集特征的真实数据,输出D(X)代表数据为真实数据的概率,1代表100%是真实的数据,0代表不可能是真实的数据。通过对两个模型的训练,理想状态下G能够生产以假乱真的数据G(Z),D难以判别G(Z)是否为真实的数据,即D(G(Z))=0.5。
基于上述,本申请提供了一种用于超声影像的聚类和风格迁移的方法。
发明内容
本发明的目的在于提供一种用于超声影像的聚类和风格迁移的方法,它可以对不同风格的超声影像进行聚类,以减少风格迁移的图像种类。同时能够在现有超声影像数据集的内容存在难以获得成对数据困难的基础上解决风格迁移的问题。通过统一不同风格的影像之间风格,从而提高智能医疗辅助系统的鲁棒性。
为实现本发明的目的,本发明提供的一种用于超声影像的聚类和风格迁移的方法,包含以下步骤:
步骤一:数据预处理,将超声影像转换为数据向量;
步骤二:使用三种聚类算法:K-means聚类算法、凝聚层次聚类算法和谱聚类算法进行对比实验,选择最优算法;
步骤三:根据聚类实验结果,选择风格差异较大的图像;
步骤四:基于CycleGAN对网络结构以及损失函数进行设计;
步骤五:针对良恶性数据集设计风格迁移实验,并对实验结果进行分析。
其中,步骤一对超声图像进行预处理,具体步骤如下:
由于彩超以外的超声图像均为黑白的单通道图像,可以认为超声图像的数据结构为一个二维矩阵,矩阵中的每个点代表原图中的该点的像素值。因此可以将超声图像转换成数据向量对其进行聚类。
其中,步骤二中分别使用K-means聚类算法、凝聚层次聚类算法和谱聚类算法进行对比实验。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津大学,未经天津大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010382003.1/2.html,转载请声明来源钻瓜专利网。