[发明专利]一种基于语义一致性的人体衣物分割方法有效
申请号: | 201810631795.4 | 申请日: | 2018-06-19 |
公开(公告)号: | CN108985298B | 公开(公告)日: | 2022-02-18 |
发明(设计)人: | 李玺;吉炜 | 申请(专利权)人: | 浙江大学 |
主分类号: | G06V10/26 | 分类号: | G06V10/26;G06V10/82;G06V40/10;G06N3/04 |
代理公司: | 杭州求是专利事务所有限公司 33200 | 代理人: | 傅朝栋;张法高 |
地址: | 310058 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 语义 一致性 人体 衣物 分割 方法 | ||
1.一种基于语义一致性的人体衣物分割方法,其特征在于包括以下步骤:
S1、获取用于训练人体衣物分割的图像数据集,并定义算法目标;
S2、对数据集中每个单帧图像寻找其在语义空间中的相邻图片并组成图片对;
S3、对每一组图片对在流型空间中的相邻关系进行联合建模;
S4、建立衣物分割的预测模型;
S5、使用所述预测模型解析图片中衣物的语义信息;
所述S3包括以下子步骤:
S31、使用四层卷积操作和池化操作对图片对中的Itrain和I′train分别提取特征得到SI和S′I,即:
SI=fsingle(Itrain;θ)
S′I=fsingle(I′train;θ)
其中fsingle()为四层卷积操作和池化操作构建的函数,θ为卷积参数;
S32、对S31中得到的特征SI和S′I进行融合得到融合后特征Sinteraction:
Sinteraction=(1-α)*SI+α*S′I
S33、使用三层卷积操作对融合后特征Sinteraction进行图片语义信息的重构,得到大小为图像Itrain八分之一大小的语义分割图同时使用四层卷积和上采样操作对单个图像特征SI进行语义信息重构,得到与图像Itrain大小一致的语义分割图
S34、对所有的图片对执行S31-S33的操作。
2.根据权利要求1所述的一种基于语义一致性的人体衣物分割方法,其特征在于所述S1中的图像数据集包括单帧图像Itrain和人工标注的语义分割图Ptrain;所述的算法目标为预测单帧图像中的衣物语义分割图
3.根据权利要求1所述的一种基于语义一致性的人体衣物分割方法,其特征在于所述S2包括以下子步骤:
S21、对于每个单帧图像Itrain,从预训练好的人体姿态估计模型Openpose中提取人体姿态特征Cpose和图像表观特征Cappearance,通过串接Cpose和Cappearance,得到单帧图像Itrain对应的图片特征CI;
S22、对图像数据集中的图片两两计算相似度,其中,任意两张图片Itrain和I′train的相似度α计算如下:
其中Cempty为与CI图片大小一样且值全部为0的一张图像的图片特征;C′I为对于单帧图像I′train,根据与单帧图像Itrain相同的方法得到的图片特征;Euclidean()表示计算欧氏距离;
S23、通过相似度计算和比较,对每个单帧图像Itrain,检索到与之最相似的图像I′train,得到图片对(Itrain,I′train)以及对应的相似度值α。
4.根据权利要求1所述的一种基于语义一致性的人体衣物分割方法,其特征在于所述S4包括以下子步骤:
S41、建立深度卷积神经网络,神经网络的输入为一对图片对(Itrain,I′train),输出为相对于图片Itrain的语义分割图像神经网络的结构表示为映射用公式表示为:
其中θ1为预测模型预测语义分割结果时所用的卷积参数,f()为深度卷积神经网络的预测函数;
S42、神经网络的损失函数为:
其中P和Psmall分别表示对应的真实语义分割图像和对应的真实语义分割图,表示原始尺度的预测语义分割图和其真实语义图片的损失误差;表示小尺度的预测语义分割图和其真实语义图片的损失误差,所述小尺度为原始尺度的八分之一;λ为权重参数;
S43、使用Adam优化方法和反向传播算法在损失函数L下训练整个神经网络,直到神经网络收敛。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大学,未经浙江大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810631795.4/1.html,转载请声明来源钻瓜专利网。