[发明专利]基于超声影像设备的超声图像采集方法以及相关装置在审
申请号: | 202111246132.9 | 申请日: | 2021-10-25 |
公开(公告)号: | CN113842166A | 公开(公告)日: | 2021-12-28 |
发明(设计)人: | 张维拓;钱碧云;徐天宇 | 申请(专利权)人: | 上海交通大学医学院 |
主分类号: | A61B8/08 | 分类号: | A61B8/08;A61B8/00;G06N3/04;G06N3/08;G06T7/00 |
代理公司: | 北京知果之信知识产权代理有限公司 11541 | 代理人: | 高科;李志刚 |
地址: | 200025 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 超声 影像 设备 图像 采集 方法 以及 相关 装置 | ||
1.一种基于超声影像设备的超声图像采集方法,其特征在于,包括:
通过所述超声影像设备,获取连续超声图像;
将所述连续超声图像中的第N帧图像以及所述连续超声图像,输入至预设神经网络模型,其中所述预设神经网络模型为使用多组图像数据通过机器学习训练得出的,多组数据中的每组数据均包括:样本超声图像、所述样本超声图像的类别标签,所述N为整数;
根据所述预设神经网络模型,判断所述第N帧图像是否满足采集要求;
若不满足,则通过所述超声影像设备中的提醒模块对所述连续超声图像的采集方式进行指导,以重新获取所述连续超声图像;
若满足,则将第N帧图像保存之后继续判断第N+1帧图像是否同样满足采集要求。
2.根据权利要求1所述的方法,其特征在于,所述预设神经网络模型,包括:多个单个深度神经网络模型,每个所述单个深度神经网络模型用于针对预设医学场景以及医学信息训练得到,所述单个深度神经网络模型至少包括如下之一的功能:
匹配背景模板、检测单帧图像的结节、判别单帧图像的病灶良恶性、估计连续影像的置信度。
3.根据权利要求2所述的方法,其特征在于,所述预设神经网络模型包括:第一深度神经网络模型,所述超声图像包括甲状腺超声图像,
采集甲状腺的不同部分以及每个部分对应的设角度的超声图像,得到至少包括预设部位和预设角度的所述甲状腺超声图像;
通过所述第一深度神经网络模型,识别所述甲状腺超声图像中的背景是否与预设背景匹配,其中,所述第一深度神经网络模型为使用多组图像数据通过机器学习训练得出的,多组数据中的每组数据均包括:不同部位以及不同角度采集得到的颈部超声图像样本;
如果匹配,则满足所述超声影像设备上超声探头的放置要求;
如果不匹配,则不满足所述超声影像设备上超声探头的放置要求。
4.根据权利要求2所述的方法,其特征在于,所述预设神经网络模型包括:第二深度神经网络模型,所述超声图像包括甲状腺超声图像,
通过所述第二深度神经网络模型,识别所述甲状腺超声图像的单帧图像中是否存在甲状腺结节,其中所述第二深度神经网络模型为使用多组图像数据通过机器学习训练得出的,多组数据中的每组数据均包括:含有甲状腺结节以及不含甲状腺结节的甲状腺超声图像样本,所述含有甲状腺结节的甲状腺超声图像中预先标注出结节位置信息和/或结节大小信息;
若检测到,则截取甲状腺结节的局部图像作为输入传送至第三深度神经网络模型。
5.根据权利要求4所述的方法,其特征在于,
基于所述第三深度神经网络模型接收所述第二深度神经网络模型输入的所述甲状腺结节的局部图像,判别第二深度神经网络模型所识别的结节为良性结节或恶性结节,其中,所述第三深度神经网络模型为使用多组图像数据通过机器学习训练得出的,多组数据中的每组数据均包括:预先标注出良性以及恶性的甲状腺结节局部图像样本。
6.根据权利要求1所述的方法,其特征在于,所述预设神经网络模型还包括:第四深度神经网络模型,所述超声图像包括甲状腺超声图像,
将一个预设门限时间内的连续甲状腺超声图像以及在所述预设门限时间内对甲状腺超声图像单帧图像的输出的背景模板匹配结果、单帧图像的结节检测结果、单帧图像的病灶良恶性判别结果,输入至所述第四深度神经网络模型;
基于所述第四深度神经网络模型,输出所述预设门限时间内每一帧甲状腺超声图像的置信度评分,以及连续甲状腺超声图像的整体置信度。
7.根据权利要求6所述的方法,其特征在于,还包括:
如果所述连续甲状腺超声图像的整体置信度低于阈值,则通过所述超声影像设备中的提醒模块对所述连续超声图像的采集方式进行指导,以重新获取所述连续超声图像;
如果所述连续甲状腺超声图像的整体置信度高于阈值,则根据每帧图像的置信度,则选择置信度最高的图片。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海交通大学医学院,未经上海交通大学医学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111246132.9/1.html,转载请声明来源钻瓜专利网。