[发明专利]基于目标检测网络与知识推理的人员行为意图识别方法有效
申请号: | 202210316396.5 | 申请日: | 2022-03-28 |
公开(公告)号: | CN114724078B | 公开(公告)日: | 2023-06-23 |
发明(设计)人: | 苟先太;程丽红;蒋晓凤;曾开心;魏峰;顾凡;周晨晨;苟瀚文;姚一可 | 申请(专利权)人: | 西南交通大学;四川八维九章科技有限公司 |
主分类号: | G06V20/52 | 分类号: | G06V20/52;G06V40/10;G06V10/44;G06V10/764;G06V10/82;G06N3/0464;G06N3/08;G06N5/02;G06N5/04 |
代理公司: | 北京正华智诚专利代理事务所(普通合伙) 11870 | 代理人: | 杨浩林 |
地址: | 610031*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 目标 检测 网络 知识 推理 人员 行为 意图 识别 方法 | ||
1.一种基于目标检测网络与知识推理的人员行为意图识别方法,其特征在于,包括以下步骤:
S1、以三元组的形式构建面向人员生活场景的知识图谱;
S2、采集视频数据并进行预处理,得到预处理后的数据;
S3、将预处理后的数据输入至目标检测模型,获取预处理后的数据中的各类实体;各类实体包括人体和物体;
S4、根据人体和物体的位置区域特征构建关系特征,根据关系特征采用高斯混合模型得出物体与人体的位置关系;其中位置关系包括“在手中”、“从属关系”和“距离小于阈值”;
S5、将物体、人体和对应的位置关系构成三元组,将三元组输入知识图谱,得到初步确定的场景;
S6、通过人体关键点检测模型获取预处理后的数据中人体关键点特征信息;
S7、基于人体关键点特征信息对初步确定的场景进行推理,输出符合人体关键点特征信息的场景,并将输出的场景作为人员行为意图;
步骤S1的具体方法为:
以“人-物-行为”构建三元组,以三元组为核心进行本体建模,搭建面向人员的生活场景的图谱基础架构;定义面向人员生活场景的物体概念,选取物体的视觉属性概念,明确物体间的相对位置关系,通过常识、场景图像和/或常用语义对图谱基础架构进行对象信息扩展,得到面向人员生活场景的知识图谱;
步骤S4的具体方法包括以下子步骤:
S4-1、获取实体λi的区域坐标(xi,yi)、宽度wi和高度hi,采用公式:
构建实体λi与人手λj的关系特征f(λi,λj);其中areai表示实体λi的面积;(xj,yj)、wj、hj和areaj分别为人手λj的区域坐标、宽度、高度和面积;
S4-2、将关系特征f(λi,λj)输入高斯混合模型,获取实体λi与人手λj之间条件概率值最大的位置关系,并将其作为物体与人体的位置关系;
步骤S4-2的具体方法包括以下子步骤:
S4-2-1、初始化高斯混合模型参数;
S4-2-2、基于当前参数,根据公式:
计算观测数据n来自子模型k的概率γnk;其中N表示观测数据的总数;K表示高斯混合模型中子模型的总数;αk为观测数据属于子模型k的概率;φ(xn|θk)为子模型k的高斯分布密度函数,μk为子模型的数据期望,σk为子模型的数据方差;xn表示观测数据n;
S4-2-3、根据公式:
更新参数μk、αk和∑k;其中(·)T表示转置;
S4-2-4、判断当前参数μk、αk和∑k是否均收敛,若是则进入步骤S4-2-5;否则返回步骤S4-2-2;
S4-2-5、根据公式:
获取实体λi与实体λj的关系特征f(λi,λj)的概率分布,并得到概率值最大的位置关系。
2.根据权利要求1所述的基于目标检测网络与知识推理的人员行为意图识别方法,其特征在于,步骤S2中预处理的具体方法为:
将视频数据处理成帧图像,并对帧图像进行去噪和压缩。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西南交通大学;四川八维九章科技有限公司,未经西南交通大学;四川八维九章科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210316396.5/1.html,转载请声明来源钻瓜专利网。