[发明专利]一种基于辅助学习的瞳孔检测方法及系统有效
| 申请号: | 202011508367.6 | 申请日: | 2020-12-18 |
| 公开(公告)号: | CN112560709B | 公开(公告)日: | 2023-07-25 |
| 发明(设计)人: | 容毅标;范衠 | 申请(专利权)人: | 汕头大学 |
| 主分类号: | G06V40/18 | 分类号: | G06V40/18;G06V10/82;G06N3/0464;G06N3/08 |
| 代理公司: | 广州嘉权专利商标事务所有限公司 44205 | 代理人: | 邓易偲 |
| 地址: | 515063 *** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 辅助 学习 瞳孔 检测 方法 系统 | ||
本发明公开了一种基于辅助学习的瞳孔检测方法及系统,首先基于瞳孔检测的特点进行辅助任务的设计,接着利用辅助任务与主要任务共同对卷积神经网络进行训练。然后利用训练好的卷积神经网络直接从原图像中导出瞳孔显著图,最后基于瞳孔显著图实现瞳孔的检测,与现有技术相比,本方法可以使得卷积神经网络在训练过程中跳出局部最小值,从而显著提高瞳孔检测的准确率;本发明应用于模式识别与机器学习技术领域。
技术领域
本发明属于模式识别与机器学习、瞳孔检测处理技术领域,具体涉及一种基于辅助学习的瞳孔检测方法及系统。
背景技术
瞳孔的自动检测在许多应用场景中扮演着重要的角色,如脑疾病诊断工具的开发、睡意的检测等。传统的瞳孔检测方法通常是基于一些前提假设进行算法设计的,如假设瞳孔区域处的像素灰度值较小等。但是该类方法的性能通常依赖于图像本身,一旦图像不满足这些前提假设,所设计的算法就会失效。相对于该类传统的算法,另一类较为先进的方法是基于传统的机器学习算法。该类算法虽然可以在一定程度上避免作出强的前提假设,但是它们通常会涉及到特征工程,即手动地进行特征设计,而特征设计具有一些显著的不足,如十分的费时费力、需要大量的先验知识等。
随着卷积神经网络的复苏,卷积神经网络在各领域都得到了广泛的应用并取得了优于传统算法的性能。由于卷积神经网络属于端到端、可学习的有监督算法,因此利用卷积神经网络可以避免特征工程、减少对先验知识的依赖。当前,也有研究者利用卷积神经网络实现瞳孔的检测。如Vera等首先对金标准区域进行扩大,然后利用原始图像和扩大后的金标准对训练卷积神经网络,最后设计后处理算法实现瞳孔的检测。这个过程中,由于金标准被放大了,所以网络导出的瞳孔映射图并不精准。然而,如果不对金标准进行放大,直接采用图像-金标准对训练卷积神经网络的话,由于金标准中目标像素的个数与非目标像素的个数间的比例严重失衡,网络会很容易陷入局部极小值,从而无法正确捕捉瞳孔的信息。由上述可知,若对金标准中的瞳孔区域进行放大,则会导致精度的下降,若不放大,网络则会陷入局部最小值。
发明内容
本发明的目的在于提出一种基于辅助学习的瞳孔检测方法及系统,以解决现有技术中所存在的一个或多个技术问题,至少提供一种有益的选择或创造条件。
本发明提供一种基于辅助学习的瞳孔检测方法及系统,因此本发明的目是拟通过设计辅助任务,并与原主要任务一起对卷积神经网络进行训练,使得卷积神经网络可以跳出局部最小值,从而实现瞳孔的精准检测。首先基于主要任务(瞳孔检测)为卷积神经网络进行辅助任务的设计。然后利用主要任务和辅助任务共同训练卷积神经网络。接着利用训练好的卷积神经网络从原图像(包含了瞳孔的眼部图像)中导出瞳孔的显著图,最后基于显著图实现瞳孔的检测。
为了实现上述目的,根据本发明的一方面,提供一种基于辅助学习的瞳孔检测方法,所述方法包括以下步骤:
S100,构建辅助任务;
S200,通过辅助任务与主要任务构建损失函数;
S300,训练卷积神经网络并通过最小化损失函数确定卷积神经网络中参数的值;
S400,利用训练好的卷积神经网络从原图像中识别出瞳孔的显著图,并基于显著图实现瞳孔的检查。
进一步地,在S100中,构建辅助任务的方法为:根据主要任务的特点,进行辅助任务的设计,所述辅助任务是让卷积神经网络从原图像中导出一个向量场,主要任务是指瞳孔检测,所述向量场是指由m×n个向量组成的集合,其中m×n表示图像的大小,即图像中像素的个数,该向量场的特点是它里面的所有向量均指向于目标点;设该向量场用数学表达为v=[u(x,y),v(x,y)],(x,y)表示像素的位置坐标。这个式子目的是为了求得向量场[u,v],通过求下面的欧拉方程就可以得到[u,v],则该向量场可以通过最小化如下能量函数得到:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于汕头大学,未经汕头大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011508367.6/2.html,转载请声明来源钻瓜专利网。





