[发明专利]基于深度稠密网络与边缘距离图加权的图像协同分割方法在审
申请号: | 202110304837.5 | 申请日: | 2021-03-09 |
公开(公告)号: | CN113012158A | 公开(公告)日: | 2021-06-22 |
发明(设计)人: | 刘峡壁;刘曦;李慧玉 | 申请(专利权)人: | 北京深境智能科技有限公司;广东申义实业投资有限公司 |
主分类号: | G06T7/10 | 分类号: | G06T7/10;G06N3/04;G06N3/08;G06T7/194 |
代理公司: | 北京正阳理工知识产权代理事务所(普通合伙) 11639 | 代理人: | 张利萍 |
地址: | 100044 北京市西城区*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 稠密 网络 边缘 距离 加权 图像 协同 分割 方法 | ||
1.基于深度稠密网络与边缘距离图加权的图像协同分割方法,其特征在于,包括以下步骤:
步骤1:获取含有共同前景目标的原图及其对应的标记图,并进行数据预处理;
步骤2:对步骤1得到的每一张标记图,计算其对应的真实距离图;
步骤3:搭建一个U形深度稠密连接孪生网络,该深度网络包括编码器和解码器两部分;
其中,在解码器中的反卷积层之间添加稠密连接,解码器中各卷积块的输出经过反卷积放大分辨率、批归一化和激活操作后,传递给其后的网络层;
步骤4:根据步骤1中得到的原图,输入U形深度网络,经过编码器得到对应的特征图;
步骤5:根据步骤4得到的特征图,通过U形深度网络的解码器部分,得到网络预测输出的prediction距离图;
步骤6:将步骤5获得的prediction距离图与步骤2得到的真实距离图求交并比,用1减去该交并比,得到损失项lossiou,该损失项为距离加权损失函数;
步骤7:根据步骤5得到的prediction距离图和步骤1中的原始标记图,将两图通过一个拟合阶跃函数转换成掩码图,对转换得到的掩码图求均方误差损失lossmse;
其中,拟合阶跃函数F(x)的计算公式为:
其中,e为自然对数;
均方误差损失为:
lossmse=||F(Youtput)-F(Ylabel)||2 (2)
其中,Youtput和Ylabel分别为prediction距离图和真实标记图。
步骤8:对步骤6和步骤7得到的两个损失项加权求和,得最终的损失函数:
loss=lossiou+λ*lossmse (3)
其中,λ为平衡两个损失项大小的调节参数;
步骤9:使用步骤8得到的损失函数,对网络进行更新学习;
步骤10:将待分割的原图输入步骤9中学习完成的网络,得到预测结果图,对预测结果图的每个像素点进行分类,得到最终的掩码图,从而完成前景抠取过程。
2.如权利要求1所述的基于深度稠密网络与边缘距离图加权的图像协同分割方法,其特征在于,步骤1预处理,包括对原图和标记图进行统一大小裁剪和灰度归一化。
3.如权利要求1所述的基于深度稠密网络与边缘距离图加权的图像协同分割方法,其特征在于,步骤2计算真实距离图的方法如下:
对步骤1得到的每一张标记图x,计算其对应的真实距离图M(x),计算公式如下:
其中,d(x,b)为像素点x到像素点b之间的欧几里得距离,background和foreground分别为图像的前景区域和背景区域,原始图像、原始图像的标记图以及根据标记图求得的距离图,一同构成最终的数据。
4.如权利要求1所述的基于深度稠密网络与边缘距离图加权的图像协同分割方法,其特征在于,步骤6采用以下方法实现:
首先,记pi、gi分别为prediction距离图与真实距离图中的前景像素点,uj、vj分别为其背景像素点,N和M分别为前景和背景像素点个数。计算两个距离图的三维交并比,将二者中相对小的数视为交集,相对大的数视为并集,之后用1减去该交并比,得到初始lossiou:
其中,i表示对应的第i个前景像素点,j表示对应的第j个背景像素点;
然后,利用真实距离图对各像素点的重要性进行加权,得到最后的lossiou:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京深境智能科技有限公司;广东申义实业投资有限公司,未经北京深境智能科技有限公司;广东申义实业投资有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110304837.5/1.html,转载请声明来源钻瓜专利网。