[发明专利]基于多元经验模态分解与联合盲源分离的非接触式视频心率检测方法有效
申请号: | 201910720279.3 | 申请日: | 2019-08-06 |
公开(公告)号: | CN110269600B | 公开(公告)日: | 2021-12-21 |
发明(设计)人: | 陈勋;汪旻达;宋仁成;成娟;李畅;刘羽 | 申请(专利权)人: | 合肥工业大学 |
主分类号: | A61B5/024 | 分类号: | A61B5/024;A61B5/00 |
代理公司: | 安徽省合肥新安专利代理有限责任公司 34101 | 代理人: | 陆丽莉;何梅生 |
地址: | 230009 安*** | 国省代码: | 安徽;34 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 多元 经验 分解 联合 分离 接触 视频 心率 检测 方法 | ||
1.一种基于多元经验模态分解与联合盲源分离的非接触式视频心率检测方法,其特征是按照如下步骤进行:
步骤1:获取t帧视频图像,并采用人脸检测及面部追踪法确定所述t帧视频图像中的面部感兴趣区域,将每帧视频图像中的面部感兴趣区域均分成N块子区域;
步骤2:对于每块子区域,选取绿色通道均值信号或者色差信号作为输入信号,并由所有子区域的输入信号构成输入信号数据集G(t)=[i1(t),i2(t),...,in(t),...,iN(t)]T,in(t)为t帧视频图像的第n个子区域输入信号,其中,1≤n≤N;
步骤3:采用噪声辅助的多元经验模态分解方法将所述输入信号数据集G(t)分解成若干个本征模态分量;
步骤4:采用联合盲源分离法所示的X(t)=AZ(t)和/或Z(t)=WX(t)对所述t帧视频图像的本征模态数据集X(t)进行盲源分离处理,得到混合矩阵A,解混矩阵W以及t帧视频图像的源信号矩阵Z(t)=[Z1(t),Z2(t),...,Zn(t),...,ZN(t)]T,其中,Zn(t)为t帧视频图像的第n个子区域的源信号矩阵,并有:Zn(t)=[z1n(t),z2n(t),...,zkn(t),...,zKn(t)]T,zkn(t)表示t帧视频图像的第n个子区域的源信号矩阵中第k个源成分向量,1≤k≤K;
步骤5:筛选t帧视频图像的源信号矩阵Z(t)中第一个源成分向量,得到候选心率信号集合其中,zp(t)表示筛选后的t帧视频图像的第p个候选心率信号,1≤p≤P≤K;
步骤6:计算第p个候选心率信号zp(t)的主频率以及二次谐波频率的能量之和bp,从而得到P个候选心率信号总能量集合Bp={b1,b2,…,bp,…,bP},并得到第p个候选心率信号zp(t)的能量比值;
步骤7:筛选所有候选心率信号中最大能量比值的信号作为最佳心率估计信号,并记为脉冲信号;采用快速傅里叶变换将所述脉冲信号转换成频域形式,并得到脉冲信号的主频率fmain,从而得到平均心率为HRavg=fmain·δ,δ表示测试时间。
2.根据权利要求1所述的非接触式视频心率检测方法,其特征是,所述步骤3是按如下过程进行:
步骤3.1:添加m个高斯白噪声到所述输入信号数据集G(t)上,从而构成新的输入信号数据集,记为其中,ym(t)为t帧视频图像的第m个通道对应的高斯白噪声,1≤m≤N;
步骤3.2:采用多元经验模态分解将所述新的输入信号数据集分解成Q个本征模态分量后,保留输入信号分解的本征模态分量,去除高斯白噪声分解的本征模态分量,从而得到t帧视频图像的本征模态数据集X(t)=[X1(t),X2(t),...,Xn(t),...,XN(t)]T;其中,Xn(t)表示t帧视频图像的第n个子区域输入信号in(t)分解的本征模态分量,并有:Xn(t)=[x1n(t),x2n(t),...,xqn(t),...,xQn(t)]T,xqn(t)为t帧视频图像的第n个子区域输入信号in(t)分解出的第q个本征模态分量,1≤q≤Q。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于合肥工业大学,未经合肥工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910720279.3/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种低功耗采样方法
- 下一篇:一种利用人体电容的精准计步方法