[发明专利]用于发现和跟踪双眼的方法和装置有效
申请号: | 200880116337.1 | 申请日: | 2008-11-12 |
公开(公告)号: | CN101861118A | 公开(公告)日: | 2010-10-13 |
发明(设计)人: | 恩里科·泽思丘 | 申请(专利权)人: | 视瑞尔技术公司 |
主分类号: | A61B3/113 | 分类号: | A61B3/113;G06K9/00 |
代理公司: | 北京连和连知识产权代理有限公司 11278 | 代理人: | 王光辉 |
地址: | 卢森堡*** | 国省代码: | 卢森堡;LU |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 用于 发现 跟踪 双眼 方法 装置 | ||
1.用于发现进而跟踪至少一个脸部的双眼的三维坐标的方法,包括以下步骤:
a)接收包括来自至少一个图像传感器的至少一个数字视频信号的序列的图像数据;
b)在图像数据中发现或跟踪已发现的眼睛;
c)确定发现或跟踪的眼睛的三维坐标;
d)分配发现或跟踪的眼睛以形成双眼;以及
e)输出双眼的三维坐标;
其中,在图像数据中发现眼睛的进程包括以下步骤:
f)识别图像数据中的一个或多个脸部;
g)确定至少一个识别的脸部的三维坐标;
h)在识别的脸部定义第一搜索区域;以及
i)在第一搜索区域发现至少一只眼睛;
其中,在图像数据中跟踪已发现的眼睛的进程包括以下步骤:
j)在识别的脸部定义第二搜索区域;以及
k)在第二搜索区域跟踪双眼的眼睛;
其特征在于,在第一搜索区域中发现至少一只眼睛的进程包括以下步骤:
l)根据识别的脸部距提供图像数据的图像传感器的距离计算眼睛部分的预期尺寸;
m)根据识别的脸部距提供图像数据的图像传感器的距离计算灰度值作为第一搜索区域分割的阈值;
n)预处理第一搜索区域以提高对比度;
o)预处理后分割第一搜索区域;
p)计算已分割的第一搜索区域中的一个或多个结合区域,结合区域是灰度值至少近似相等的相邻像素的集合;
q)确定每个已计算的结合区域的尺寸;以及
r)将眼睛部分的预期尺寸与已确定的结合区域的尺寸相比较,如果已确定的结合区域的尺寸至少与眼睛部分的预期尺寸大致相符,则结合区域代表发现的眼睛。
2.根据权利要求1所述的方法,其特征在于,在第二搜索区域跟踪双眼的眼睛的进程包括以下步骤:
s)根据已识别的脸部距提供图像数据的图像传感器的距离计算眼睛部分的预期尺寸;
t)确定第二搜索区域中的最小灰度值;
u)迭代灰度值作为第二搜索区域的阈值,当检测到至少两个眼睛时迭代终止,包括以下步骤:
v)根据已识别的脸部距提供图像数据的图像传感器的距离,从当前迭代步骤以及最小灰度值计算灰度值作为分割第二搜索区域的阈值;
w)分割第二搜索区域;
x)计算已分割的第二搜索区域中的一个或多个结合区域,结合区域是灰度值至少近似相等的相邻像素的集合;
y)确定每个已计算的结合区域的尺寸;
z)将眼睛部分的预期尺寸与确定的结合区域的尺寸相比较,如果已确定的结合区域的尺寸至少与眼睛部分的预期尺寸大致相符,则结合区域代表跟踪的眼睛。
3.根据上述权利要求中的一个所述的方法,其特征在于,分割是每个像素的二进位图像化,当像素低于阈值时,它们的值为1,当像素高于阈值时,它们的值为0,或者相反,当像素低于阈值时,它们的值为0,当像素高于阈值时,它们的值为1。
4.根据上述权利要求中的一个所述的方法,其特征在于,步骤n)中的预处理是灰度值直方图均衡化。
5.根据上述权利要求中的一个所述的方法,其特征在于,结合区域是8-像素结合区域。
6.根据上述权利要求中的一个所述的方法,其特征在于,眼睛部分包括瞳孔,或瞳孔和虹膜。
7.根据上述权利要求中的一个所述的方法,其特征在于,分配发现或跟踪的眼睛以形成双眼包括分类。
8.根据权利要求7所述的方法,其特征在于由支持向量机执行分类。
9.根据权利要求8所述的方法,其特征在于,支持向量机由一个或多个眼睛和/或无眼睛图像教示。
10.根据上述权利要求中的一个所述的方法,其特征在于,识别图像数据中一个或多个脸部包括将识别的脸部的三维坐标与之前步骤已识别的脸部的三维坐标进行比较。
11.根据上述权利要求中的一个所述的方法,其特征在于,确定脸部的三维坐标包括对图像数据的立体分析。
12.根据上述权利要求中的一个所述的方法,其特征在于,识别脸部距提供图像数据的图像传感器的距离包括基于脸部三维坐标计算脸部的距离。
13.根据上述权利要求中的一个所述的方法,其特征在于,在记录图像数据过程中,用红外光主动照明脸部。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于视瑞尔技术公司,未经视瑞尔技术公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/200880116337.1/1.html,转载请声明来源钻瓜专利网。