[发明专利]一种基于姿态时空特征的考场异常行为识别方法有效
申请号: | 201911339854.1 | 申请日: | 2019-12-23 |
公开(公告)号: | CN111178216B | 公开(公告)日: | 2023-06-09 |
发明(设计)人: | 周昊;刘畅;侯宝玉 | 申请(专利权)人: | 东北大学 |
主分类号: | G06V20/40 | 分类号: | G06V20/40;G06V20/52;G06V40/20 |
代理公司: | 北京易捷胜知识产权代理有限公司 11613 | 代理人: | 韩国胜 |
地址: | 110169 辽*** | 国省代码: | 辽宁;21 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 姿态 时空 特征 考场 异常 行为 识别 方法 | ||
1.一种基于姿态时空特征的考场异常行为识别方法,其特征在于,包括如下步骤:
步骤A1、对考场监控视频进行截帧,获得连续多帧考生肢体行为图像,所述考场监控视频是由摄像头采集获得的;
步骤A2、对所述考生肢体行为图像进行预处理,提取考生肢体行为图像中考生的关键点的时空信息序列;
步骤A3、将所述时空信息序列输入单人原子行为识别模型,输出异常行为的类型、时间、位置和方向,或输出行为正常;
其中,单人原子行为识别模型为基于考生肢体行为图像和对应的行为类别抽象出的模型;
步骤A4、基于异常行为的类型、时间、位置和方向,筛选并提取出时间接近、位置相邻且异常行为的类型相对应的考生的关键点的时空信息序列;
步骤A5、将步骤A4中获取的时空信息序列输入双人协同行为识别模型,输出双人异常行为类型;
其中,双人协同行为识别模型为基于两名考生异常行为的类型、时间、位置和方向的模型;
所述单人原子行为识别模型中包括异常行为:举手、伸手、转动和坐姿,分别以RH、RA、TN和SP表示;
当单人原子行为识别模型中输出异常行为类型为举手时,满足下述条件:
或
其中:Bi为考生的关键点Pi的时空信息序列,考生的关键点Pi为考生肢体行为图像中对应的鼻部、颈部、右肩部、左肩部、右肘关节、左肘关节、右腕关节、左腕关节和髋骨中心的区域,分别表示为P1、P2、P3、P4、P5、P6、P7、P8和P9,Bi=<P,F>,P={Pi|i∈1,2,...,9},P表示异常行为涉及到的关键点的集合,F表示异常行为涉及到的关键点满足的条件的集合,t(Bi)表示Bi的异常行为类型,t(Bi)∈{RH,RA,TN,SP},为考生的关键点Pi在考生肢体行为图像中的纵坐标。
2.根据权利要求1所述的考场异常行为识别方法,其特征在于,所述双人协同行为识别模型中包括异常行为:左右位置双人异常行为和前后位置双人坐姿异常行为;
所述左右位置双人异常行为包括左右位置双人伸手和左右位置双人互视。
3.根据权利要求1所述的考场异常行为识别方法,其特征在于,当单人原子行为识别模型中输出异常行为类型为伸手时,满足下述条件:
或
其中:Bi为考生的关键点Pi的时空信息序列,Bi=<P,F>,P={Pi|i∈1,2,...,9},P表示异常行为涉及到的关键点的集合,F表示异常行为涉及到的关键点满足的条件的集合,为考生的关键点Pi在考生肢体行为图像中的横坐标,θn为考生肢体行为图像中考生大臂与小臂的实际角度,θr为考生大臂与小臂的预设角度,t(Bi)表示Bi的异常行为类型,t(Bi)∈{RH,RA,TN,SP},o(Bi)为Bi的方向,o(Bi)∈{L,U,D,R},L、U、D、R分别表示左方、前方、后方和右方;
为考生的关键点Pi在考生肢体行为图像中的坐标,d1、d2、d3分别为P3与P5、P5与P7、P3与P7的距离;分别为过直线P5 P7、直线P6 P8的斜率。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东北大学,未经东北大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911339854.1/1.html,转载请声明来源钻瓜专利网。
- 上一篇:检测血液病融合基因的装置
- 下一篇:一种嵌入式软件接口用例自动化生成方法