[发明专利]用于对象辨识和评估的成像系统在审
申请号: | 202210116872.9 | 申请日: | 2015-11-20 |
公开(公告)号: | CN114495092A | 公开(公告)日: | 2022-05-13 |
发明(设计)人: | 克里斯多夫·M·马蒂;丹尼尔·L·劳;约翰·P·科茨 | 申请(专利权)人: | 克里斯多夫·M·马蒂 |
主分类号: | G06V20/68 | 分类号: | G06V20/68;G06V20/64;G06V10/143;G06V10/145;G06V10/12;G06V10/44;G06V10/80;G06K9/62;G06T7/13;G06T7/62 |
代理公司: | 北京品源专利代理有限公司 11332 | 代理人: | 谭营营;胡彬 |
地址: | 美国马*** | 国省代码: | 暂无信息 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 用于 对象 辨识 评估 成像 系统 | ||
1.一种用于自动检测和处理一盘食物的营养价值的方法,所述方法包括:
通过完全位于物体一侧和上方的至少一个成像传感器,基于所述传感器目标区域视野中该盘食物相对于其他对象的深度差来检测该盘食物的边缘,所述深度差基于到所述至少一个成像传感器的距离量的差;
通过所述至少一个成像传感器捕获该盘食物的三维模型;
通过所述至少一个成像传感器捕捉该盘食物的图像数据,所述图像数据包括该盘食物的可见光图像和至少一个近红外(NIR)图像;
通过处理器将所述图像数据转换为合成图像,所述合成图像模拟单个传感器拍摄的单个图像;
通过处理器识别与所述合成图像相对应的食物项;
通过处理器将所识别的食物项的三维模型转换为所识别的食物项的体积;以及
通过处理器基于所述食物项的体积计算所识别的食物项的饮食信息。
2.根据权利要求1所述的方法,还包括:
确定所识别的食物项的初始体积;
确定所识别的食物项的最终体积;以及
根据所识别的食物项的所述初始体积和所识别的食物项的所述最终体积之差来计算所识别的食物项的体积变化。
3.根据权利要求2所述的方法,还包括:
从数据库获取所识别的食物项的饮食信息;以及
计算所识别的食物项的所述体积变化的饮食含量。
4.根据权利要求1所述的方法,还包括通过LED阵列照射该盘食物,并获得在745nm、810nm、940nm、970nm和/或1050nm的波长下的反射图像数据,并将所述反射图像数据与特征食物元素相关联。
5.根据权利要求1所述的方法,其中,能够关于所述可见光图像和至少一个近红外(NIR)图像计算所识别的食物项的体积和重量。
6.一种用于自动检测和处理目标区域中的一个或多个对象的方法,所述方法包括:
通过至少一个传感器,基于视野中所述目标区域相对于其他对象的深度差来检测所述目标区域的边缘,所述深度差基于到所述至少一个传感器的距离量的差;
通过所述至少一个传感器捕获所述目标区域内所述一个或多个对象的三维模型;
通过所述至少一个传感器捕获所述一个或多个对象的图像数据,所述图像数据包括从可见光图像中分离的RGB元素或矢量以及从来自所述一个或多个对象的反射光的所述图像数据中提取的特定波长的多个近红外矢量;
通过图像处理模块将所述图像数据转换为合成图像,所述合成图像模拟单个传感器拍摄的单个图像;
通过所述图像处理模块识别所述一个或多个对象中与所述合成图像的颜色像素相对应的至少一个对象;
通过所述图像处理模块基于像素深度确定所述三维模型中每个像素的空间体积;
通过所述图像处理模块,将每个所识别的至少一个对象的每个像素的所述空间体积转换为所述至少一个对象的体积值;以及
通过所述图像处理模块,将所述合成图像中所识别的至少一个对象的每个颜色像素的体积值求和,以计算所述至少一个对象的总体积。
7.一种系统,包括:
数字相机,包括:
至少一个图像传感器,所述数字相机被配置为将一光谱范围内捕获的可见光和一光谱范围内的近红外(NIR)光转换为所捕获光电压;以及
至少一个图像处理模块,其将所捕获光电压转换为三维(3D)图像数据;以及
记录设备,其记录所述3D图像数据;
其中,所述数字相机捕获并记录在NIR光谱范围内的至少两个不同且不重叠的光谱范围子集,而不记录不重叠的光谱范围子集之间的光谱范围间隙;
图像处理引擎,被配置为:
分析所捕获和记录的所捕获光电压,以识别一个或多个对象;
基于所记录的三维图像数据,确定所述一个或多个对象在给定时间段的体积数据;以及
从一个或多个数据库获取所识别的一个或多个对象的特征信息数据;以及
显示设备,用于输出所述一个或多个对象的体积数据和特征信息数据。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于克里斯多夫·M·马蒂,未经克里斯多夫·M·马蒂许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210116872.9/1.html,转载请声明来源钻瓜专利网。