[发明专利]基于单深度图深度学习视图合成的食物体积估计方法在审
申请号: | 202210058901.0 | 申请日: | 2022-01-19 |
公开(公告)号: | CN114565659A | 公开(公告)日: | 2022-05-31 |
发明(设计)人: | 赖建强;王烨;朱成博 | 申请(专利权)人: | 北京精培医学研究院 |
主分类号: | G06T7/62 | 分类号: | G06T7/62;G06T17/20;G06T19/20 |
代理公司: | 北京国坤专利代理事务所(普通合伙) 11491 | 代理人: | 王峰刚 |
地址: | 100000 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 学习 视图 合成 食物 体积 估计 方法 | ||
1.基于单深度图深度学习视图合成的食物体积估计方法,其特征是:包括以下步骤:
1)将每个对象项放置在原点,通过方位旋转、仰角旋转、高度调整和中心移动四种运动方式来捕获不同视角的对象项深度图像;
2)将拍摄的图像进行分割和分类,使用多个外部摄像机参数随机渲染初始和对应的相反视角捕获的对象项的深度图像,并将捕获的深度图像渲染为训练数据集;
3)基于深度神经网络的视图合成方法将看不见的视角和使用看不见的对象项来预测使用输入图像的结果;
4)将初始深度图像和相对深度图像的相机坐标注册到同一世界坐标中,从而获得目标对象项的完整三维点云;
5)对步骤1)中的对象项深度图像进行预处理;
6)采用ICP算法对步骤5)中预处理后的点云进一步优化,使初始点云和合成点云融合在一起;
7)采用Alpha形状方法对对象项进行网格划分并形成三维网格,从而得到对象项的体积。
2.根据权利要求1所述的基于单深度图深度学习视图合成的食物体积估计方法,其特征是:所述步骤3)中的深度神经网络的视图合成的具体步骤为:
A)针对不同对象项建立不同大小内核的初始层;
B)通过几个卷积层和完全连接的层形成图像编码器;
C)将深度图像的矢量表示引导到图像解码器的若干卷积层中;
D)输出图像。
3.根据权利要求1所述的基于单深度图深度学习视图合成的食物体积估计方法,其特征是:所述步骤4)中获得目标对象项的完整三维点云的具体步骤为:
A):将原点的位置移动到初始相机的中心,使深度图像重新投影到世界坐标中,所述世界坐标为:
其中u、v表示图像中的坐标,X、Y和Z表示世界坐标中的坐标,Z是一个标量数,表示深度映射(u,v)和K∈R3x3是指固有的摄像机矩阵;
B):分别通过旋转矩阵和平移矩阵执行180°相机旋转和平移,并将旋转矩阵和平移矩阵合成点云注册到相同的世界坐标中,得出相对相机的位置;
沿X、Y、Z三轴的旋转矩阵为
其中θ是相机分别沿X、Y、Z三轴旋转的角度;
平移矩阵是指初始和相对摄像机位置之间的平移。
4.根据权利要求1所述的基于单深度图深度学习视图合成的食物体积估计方法,其特征是:所述步骤5)中预处理的具体步骤是:
A)采用双边过滤器填充推断深度图缺失的空间信息;
B)输入深度图并推断深度图中对象项被遮罩的轮廓,将相应的数据点重新投影到3D世界坐标中;
C)使用统计离群值移除过滤器将离群值从数据点中移除。
5.根据权利要求1所述的基于单深度图深度学习视图合成的食物体积估计方法,其特征是:所述步骤7)中Alpha形状方法的步骤为:
A)定义具有固定半径的球体,并从对象项的轮廓中选择起点;
B)球体以其圆周围绕对象项从起点旋转,依次撞击轮廓上的每一个点,直到循环闭合,得到三维网格;
C)通过步骤B)所得到的三维网格计算对象项的体积。
6.根据权利要求1至5任意一项所述的基于单深度图深度学习视图合成的食物体积估计方法的应用,其特征是:将所述方法应用于膳食摄入的营养成分含量的估算。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京精培医学研究院,未经北京精培医学研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210058901.0/1.html,转载请声明来源钻瓜专利网。