[发明专利]基于行为部件时空关系的行为识别方法有效
申请号: | 201711415772.1 | 申请日: | 2017-12-25 |
公开(公告)号: | CN108268834B | 公开(公告)日: | 2021-09-28 |
发明(设计)人: | 同鸣;郭志强;陈逸然;田伟娟 | 申请(专利权)人: | 西安电子科技大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 陕西电子工业专利中心 61205 | 代理人: | 王品华;朱红星 |
地址: | 710071 陕*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种基于行为部件时空关系的行为识别方法,主要解决现有方法未充分利用行为部件间的时空关系、识别率低的问题。其实现步骤为:1)提取行为视频的稠密轨迹,获取HOG和HOF特征,串接作为底层特征;2)对底层特征进行层次聚类,获取行为部件;3)构造行为部件表示,并计算时空交互关系,获取时空交互关系描述子;4)将行为部件表示和时空交互关系描述子进行串接,训练LSVM分类器模型;5)用训练好的LSVM分类器模型进行行为识别。本发明能够获取更丰富的视频行为表示,提高了行为识别的准确率,可用于视频监控和安全防御。 | ||
搜索关键词: | 基于 行为 部件 时空 关系 识别 方法 | ||
【主权项】:
1.基于行为部件时空关系的行为识别方法,包括如下步骤:(1)对行为视频提取稠密运动轨迹,得到轨迹点的3D坐标,并计算稠密轨迹的方向梯度直方图HOG和光流方向直方图HOF,作为底层特征;(2)利用步骤(1)获得的底层特征进行层次聚类,以获取行为部件;(3)对获取的行为部件训练分类器,获取部件分类器集合SVM_Set,进一步获取行为部件表示GFeat;(4)计算行为部件之间的时空交互关系:4a)挖掘成对行为部件的相对位置关系和相对运动关系,用Xu,v表示成对行为部件(Xu,Xv),其中,Xu和Xv分别表示两个不同的行为部件,利用如下公式计算Xu,v的相对空间位置Lq,r(t):
其中,Tq为第q条底层轨迹,Tr为第r条底层轨迹,
和
分别是Tq和Tr在时刻t处的运动角点坐标,o(Tq,Tr)表示Tq和Tr的时域重叠区间;4b)利用如下公式计算成对行为部件Xu,v的相对运动Mq,r(t):Mq,r(t)=Lq,r(t)‑Lq,r(t‑1),t∈o(Tq,Tr),其中,Lq,r(t)表示第t时刻Xu,v的相对空间位置,Lq,r(t‑1)表示第t‑1时刻的Xu,v的相对空间位置;4c)量化编码Xuv的相对位置Lqr(t)和相对运动Mqr(t),以获取Xuv的相对位置特征
和相对运动特征
4d)串接相对位置特征
和相对运动特征
得到Xu,v的时空交互关系直方图描述子:
最终获得所有成对行为部件的时空交互关系直方图描述子:Fst;4e)将时空交互关系直方图描述子Fst划分成正负样本集合,训练获取所有成对行为部件的时空交互关系分类器集合SVM_Set_ST;4f)将各行为视频的时空交互关系直方图描述子输入到SVM_Set_ST中,获取时空交互关系描述子Mst=[hi,1,...,hi,n,...,hi,N]T,其中,hi,n表示第c类行为视频Vc在第n个时空交互关系分类器中的判分值,N表示所有成对行为部件的数目。(5)将数据集中所有行为视频划分为训练集和测试集,将视频的行为部件表示GFeat和行为部件的时空交互关系描述子Mst分别作为隐变量,根据隐变量GFeat和Mst,构造LSVM分类器的权系数向量目标函数,采用坐标下降算法对LSVM分类器进行训练,最后把测试集中行为视频的行为部件表示和行为部件的时空交互关系描述子输入到训练好的LSVM分类器中,进行行为识别。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201711415772.1/,转载请声明来源钻瓜专利网。