[发明专利]基于自适应加速度信号分割的人体姿势实时识别方法有效
申请号: | 201911403080.4 | 申请日: | 2019-12-31 |
公开(公告)号: | CN111166340B | 公开(公告)日: | 2022-11-18 |
发明(设计)人: | 张书梅;许征程;林立忠;段丽英;李燕;董倩 | 申请(专利权)人: | 石家庄学院 |
主分类号: | A61B5/11 | 分类号: | A61B5/11;A61B5/00 |
代理公司: | 石家庄新世纪专利商标事务所有限公司 13100 | 代理人: | 彭锂 |
地址: | 050035 河*** | 国省代码: | 河北;13 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 自适应 加速度 信号 分割 人体 姿势 实时 识别 方法 | ||
1.一种基于自适应加速度信号分割的人体姿势实时识别方法,其特征在于:其包括以下步骤,
(1)建立运动姿势模型clasM和静止姿势模型clasML:
所述运动姿势模型clasM和静止姿势模型clasML的输入均为通过加速度传感器采集的被识别对象的传感器数据;运动姿势模型clasM的输出为被识别对象在运动状态下的不同姿势,静止姿势模型clasML的输出为被识别对象在静止状态下的不同姿势;
(2)通过穿戴在被识别对象身上的加速度传感器获取数据:所述数据为Ax,Ay,Az和t;t为时间,Ax,Ay,Az分别为t时刻下人体的加速度在X、Y、Z三个轴上加速度分量值。
(3)获得信号特征值:根据步骤(2)采集到的数据,计算得到信号特征值Axyz和ΔA,将计算得到的所述信号特征值Axyz和ΔA和步骤(1)采集的信号特征值Ax,Ay,Az都存储到数组
Fture,Fture[i]=[Ax[i],Ay[i],Az[i],Axyz[i],ΔA[i]];
其中Axyz为三维加速度;ΔA为相邻的两个Axyz之间变化的绝对值;i=1,…,a,a是采集的加速度数据信号的长度;
(4)获取被识别对象姿势变换的边界点:
4-1设定在步骤(3)得到的ΔA信号中存在第i个活动窗口w,大小为w=2f,边界是[i,i+2f],其中f是加速度传感器的采样频率,w是活动窗口;
4-2利用公式(5)对每个所述活动窗口计算其前半窗ΔA的平均值和后半窗ΔA的平均值,计算二者之差,并判断其是否大于等于事先定义的闽值th1,同时利用公式(6)判断该活动窗口的中间点与上一个边界点的时间差是否大于2秒钟;
4-3若公式(5)和(6)同时满足,则将该活动窗口的中间点确定为姿势变换的边界点,并保存到边界点数组bp[j]=i+f,若不同时满足则继续进行步骤(2);
其中i=1,…,n,n是的长度;j=1,…,m,m是姿势变换边界点数组bp的长度;
(5)计算相邻两姿势变换边界点之间的平均三维加速度的大小;
(6)若则调用步骤(1)建立的运动姿势分类模型clasM识别当前特征值的姿势类别,若则调用步骤(1)建立的静止姿势分类模型clasML识别当前特征值的姿势类别;最后运动姿势分类模型clasM或静止姿势分类模型clasML输出当前状态的识别结果。
2.根据权利要求1所述的基于自适应加速度信号分割的人体姿势实时识别方法,其特征在于:
步骤(3)中,将步骤(2)采集到的数据利用公式(1)和公式(2)得到信号特征值Axyz和ΔA
ΔA[i]=|Axyz[i]-Axyz[i-1]| (2)
其中Axyz为三维加速度;ΔA为相邻两个Axyz之间的变化的绝对值;i=1,…,a,a是采集的加速度数据信号的长度。
3.根据权利要求1所述的基于自适应加速度信号分割的人体姿势实时识别方法,其特征在于:
步骤(5)中,利用公式(7)计算相邻两姿势变换边界点之间的平均三维加速度的大小,
其中为平均三维加速度;j=1,…,b,b是信号的长度;bp[j]和bp[j-1]分别是姿势变换边界点数组的第j和第j-1个元素。
4.根据权利要求1所述的基于自适应加速度信号分割的人体姿势实时识别方法,其特征在于:步骤(6)中,利用公式(8)对两边界点之间的特征值Fture[i]进行分类,
其中pose是存放姿势识别结果的数组;pose[j]是识别结果的第j个元素;j=1,…,p,p是数组pose的长度;i=1,…,s,s是静止姿势类别数组ml或运动姿势类别数组m的长度。
5.根据权利要求1所述的基于自适应加速度信号分割的人体姿势实时识别方法,其特征在于:
步骤(1)中,运动姿势模型clasM的输出包括跑,快走,慢走,上楼梯,下楼梯,静止姿势模型clasML的输出包括站,坐,侧躺,俯卧,仰卧。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于石家庄学院,未经石家庄学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911403080.4/1.html,转载请声明来源钻瓜专利网。