[发明专利]基于人工智能的超声影像视频自动追踪方法和设备有效
申请号: | 201910947137.0 | 申请日: | 2019-09-29 |
公开(公告)号: | CN110648327B | 公开(公告)日: | 2022-06-28 |
发明(设计)人: | 殷晨;赵明昌 | 申请(专利权)人: | 无锡祥生医疗科技股份有限公司 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T7/73;G06T7/66;G06N3/04 |
代理公司: | 北京金信知识产权代理有限公司 11225 | 代理人: | 张放 |
地址: | 214028 江苏省无锡市新吴区*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 人工智能 超声 影像 视频 自动 追踪 方法 设备 | ||
本发明公开了一种基于人工智能的超声影像视频自动追踪方法和设备,通过神经网络的训练和使用,实现超声影像中目标位置的自动识别和跟踪,节省了医生手动标记的时间,且目标位置获取准确快速,可以在实时跟踪的同时结合当前的造影图像即时生成TIC曲线,提升了超声影像中目标识别和追踪的效率和准确性。
技术领域
本发明涉及神经网络技术领域,特别涉及一种基于人工智能的超声影像视频自动追踪方法和设备。
背景技术
在常见的超声图像检查过程中,譬如肾脏和肝脏等脏器,对于可疑肿块、囊肿、血管瘤等病变组织需要借用造影分析其性质,通过分析病变组织内造影的时间强度曲线(TIC,Time Intensity Curve)的变化特征来分析病灶位置的良恶性。
在现有的分析过程中,一般都是由医生手动标注疑似的病变组织,然后每一帧计算其造影图像强度得出对应的TIC曲线,而传统的方法局限于医生手动标注感兴趣的目标,导致效率较低,而且每一帧标注的目标位置可能随着探头的移动或角度的变换,以及器官自身的搏动而使计算结果有所偏差,因此最终的结果存在一定的误差,影响计算的准确率。
发明内容
本发明实施例的目的在于提供一种基于人工智能的超声影像视频自动追踪方法、超声设备及存储介质,以解决现有技术中通过医生手动标注计算会导致的计算效率和准确率低的问题。
为了解决上述技术问题,本申请的实施例采用了如下技术方案:一种基于神经网络的超声影像追踪方法,包括:获取待处理超声影像的第N帧图像作为所述待处理超声影像的起始帧图像;将所述第N帧图像作为第一神经网络的输入参数,确定所述第一神经网络的输出参数,所述第一神经网络的输出参数为目标在所述第N帧图像中的第一位置信息,其中,所述第一神经网络为已训练的用于识别超声影像中目标位置的神经网络;将所述第一位置信息作为第二神经网络的第一输入参数,将所述待处理超声影像的第N+1帧图像作为第二神经网络的第二输入参数,通过所述第二神经网络追踪所述目标在所述第N+1帧中的第二位置信息,其中,N为正整数,所述第二神经网络为已训练的用于识别图像之间相似性的神经网络。
进一步,所述确定所述第一神经网络的输出参数,包括:获取所述第一神经网络输出的所述目标在第N帧图像中的至少一个位置信息;确定每个所述位置信息对应的置信度;根据所述置信度大于第一阈值的位置信息确定所述目标在所述第N帧图像中的第一位置信息。
进一步,所述第一位置信息至少包括以下信息:所述目标在所述第N帧图像中中心点的坐标、所述目标在所述第N帧图像中的长度和宽度。
进一步,将所述待处理超声影像的第N+1帧图像作为第二神经网络的第二输入参数,包括:在所述第N+1帧图像上确定第一搜索区域,其中,所述第一搜索区域的中心点坐标为所述目标在第N帧图像的中心点坐标,所述第一搜索区域的大小为所述目标在所述在第N帧图像中的大小的预设倍数;将所述第一搜索区域作为所述第二输入参数。
进一步,所述通过所述第二神经网络追踪所述目标在所述第N+1帧中的第二位置信息,包括:通过所述第二神经网络在所述第一搜索区域中确定与所述第N帧中所述第一位置信息处的图像具有相似性的子区域;将所述子区域的位置信息确定为所述目标在所述第N+1帧中的所述第二位置信息。
进一步,所述通过所述第二神经网络在所述第一搜索区域中确定与所述第N帧中所述第一位置信息处的图像具有相似性的子区域,包括:计算所述第一搜索区域中的各个像素点与所述第N帧中所述第一位置信息处的图像中心点之间的距离;将所述第一搜索区域中所有所述距离小于第二阈值的像素点组成的区域确定为所述与所述第N帧中所述第一位置信息处的图像具有相似性的子区域。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于无锡祥生医疗科技股份有限公司,未经无锡祥生医疗科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910947137.0/2.html,转载请声明来源钻瓜专利网。