[发明专利]眼睛状态的检测方法、装置、设备及存储介质有效
| 申请号: | 202010301042.4 | 申请日: | 2020-04-16 |
| 公开(公告)号: | CN111488844B | 公开(公告)日: | 2023-10-20 |
| 发明(设计)人: | 黄少光;许秋子 | 申请(专利权)人: | 深圳市瑞立视多媒体科技有限公司 |
| 主分类号: | G06V40/18 | 分类号: | G06V40/18;G06V10/44;G06V10/82;G06N3/0464;G06N3/08 |
| 代理公司: | 北京市京大律师事务所 11321 | 代理人: | 于亭 |
| 地址: | 518054 广东省深圳市南山区粤海街道沙*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 眼睛 状态 检测 方法 装置 设备 存储 介质 | ||
本发明涉及图像识别技术领域,公开了一种眼睛状态的检测方法、装置、设备及存储介质,采用深度学习模型得到特征点坐标,基于特征点坐标得到目标眼睛闭合比率值,根据目标眼睛闭合比率值得到目标眼睛状态,缓解了在识别眼睛状态的过程中大数据量不足的问题,提高了检测的准确性。眼睛状态的检测方法包括:获取待检测的目标图像,目标图像包括目标眼睛;采用深度学习模型对所述待检测的目标图像进行特征提取,得到多个边缘特征点,多个边缘特征点包括多个边缘特征点坐标;采用最小二乘法拟合多个边缘特征点坐标,得到第一目标参数和第二目标参数;基于第一目标参数和第二目标参数获取目标眼睛的状态,目标眼睛的状态为张眼状态或者闭眼状态。
技术领域
本发明涉及图像识别技术领域,尤其涉及一种眼睛状态的检测方法、装置、设备及存储介质。
背景技术
随着图像大数据、深度学习等技术的发展,人脸识别等技术已经非常成熟,人们对人机交互、人脸表情交互、人脸捕捉等需求大大提高。
目前眼睛识别技术大部分基于人脸识别技术,大部分的人脸表情研究都做得比较粗糙,比如人脸表情仅仅识别微笑、大笑、忧伤、痛苦或者镇静等分类识别;部分眼睛识别技术可以检测眼睛状态或者定位眼睛的位置。
在现有技术中,检测眼睛状态的方法主要分为基于特征的分析方法和基于模式的分类方法,基于特征的分析方法主要有模板匹配、眼皮检测等算法,基于模式的分类方法主要是提取眼睛区域的特征。但是在实际应用中,这些算法容易受光照变化、面部变化等情况的影响,出现眼睛状态检测精度较低的问题和在识别眼睛状态的过程大数据量不足的问题。
发明内容
本发明的主要目的在于解决眼睛状态检测精度低和缓解识别眼睛状态的过程中大数据量不足的问题。
本发明第一方面提供了一种眼睛状态的检测方法,包括:获取待检测的目标图像,所述待检测的目标图像包括目标眼睛;采用深度学习模型对所述待检测的目标图像进行特征提取,得到多个边缘特征点,边缘特征点包括边缘特征点坐标;采用最小二乘法拟合所述多个边缘特征点坐标,得到第一目标参数和第二目标参数;基于所述第一目标参数和所述第二目标参数获取目标眼睛的状态,所述目标眼睛的状态为张眼状态或者闭眼状态。
可选的,在本发明第一方面的第一种实现方式中,所述采用深度学习模型对所述待检测的目标图像进行特征提取,得到多个边缘特征点,边缘特征点包括边缘特征点坐标包括:将所述待检测的目标图像进行预处理,得到预处理后的目标图像;将所述预处理后的目标图像输入卷积神经网络进行卷积,得到第一目标图像;在所述卷积神经网络中对所述第一目标图像进行池化处理,得到第二目标图像;将所述第二目标图像进行非线性映射,得到目标特征图像;从所述目标特征图像中提取所述目标眼睛对应的多个边缘特征点,边缘特征点包括边缘特征点坐标。
可选的,在本发明第一方面的第二种实现方式中,所述采用最小二乘法拟合所述多个边缘特征点坐标,得到第一目标参数和第二目标参数包括:在所述待检测的目标图像中,基于所述多个边缘特征点坐标采用所述最小二乘法对所述多个边缘特征点进行椭圆拟合,得到目标椭圆方程;从所述目标椭圆方程中提取第一目标参数和第二目标参数。
可选的,在本发明第一方面的第三种实现方式中,所述基于所述第一目标参数和所述第二目标参数获取目标眼睛的状态,所述目标眼睛的状态为张眼状态或者闭眼状态包括:对所述第一目标参数和所述第二目标参数进行眼睛闭合比率计算,得到目标眼睛闭合比率;根据所述目标眼睛闭合比率,获取目标眼睛状态标识,并基于所述目标眼睛状态标识确定所述目标眼睛的状态,所述目标眼睛状态标识为第一眼睛状态标识或者第二眼睛状态标识,所述目标眼睛的状态为张眼状态或者闭眼状态。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳市瑞立视多媒体科技有限公司,未经深圳市瑞立视多媒体科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010301042.4/2.html,转载请声明来源钻瓜专利网。





