[发明专利]基于目标检测和姿态检测框架的行为识别方法及系统在审
| 申请号: | 202110834226.1 | 申请日: | 2021-07-21 |
| 公开(公告)号: | CN113378799A | 公开(公告)日: | 2021-09-10 |
| 发明(设计)人: | 姬冰;崔贺;孙如月;宋锐;李贻斌 | 申请(专利权)人: | 山东大学 |
| 主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/34;G06K9/46;G06K9/62;G06N3/04;G06N3/08;G06T3/40 |
| 代理公司: | 济南圣达知识产权代理有限公司 37221 | 代理人: | 张庆骞 |
| 地址: | 250061 山东*** | 国省代码: | 山东;37 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 目标 检测 姿态 框架 行为 识别 方法 系统 | ||
本发明属于图像处理领域,提供了一种基于目标检测和姿态检测框架的行为识别方法及系统。其中,该方法包括获取目标人物图像;利用目标检测框架对目标人物图像进行行人检测,并对检测到的目标进行图像分割,得到目标图片;利用姿态检测框架从目标图片中提取人体关键骨骼点特征;对人体关键骨骼点特征进行行为分类,得到目标人物的具体行为类别。
技术领域
本发明属于图像处理领域,尤其涉及一种基于目标检测和姿态检测框架的行为识别方法及系统。
背景技术
本部分的陈述仅仅是提供了与本发明相关的背景技术信息,不必然构成在先技术。
外肢体机器人是一种新型可穿戴式机器人,可以在特定工作场景下,与操作者进行协作,从而完成一些高难度操作,辅助操作者完成施工。在这种场景下,若外肢体设备能够准确、快速地识别操作者行为意图,可以使得人机交互变得更加容易,提高工作效率。
目前常用的行为识别方法是,利用姿态检测框架,如OpenPose、Tf-pose等,对图片中人体进行骨骼关键点提取,逐一获得关键点位置坐标信息;将获取的关键点位置信息作为神经网络输入、将该行为种类作为分类标签一同放入神经网络进行训练;将训练好的行为分类器搭配外置摄像头,便可以达到实时行为识别的效果。发明人发现,虽然这种方法可以较为准确的实现行为分类,但其需要先对图片进行人物检测再对人物逐一提取骨骼关键点,行为识别的实时性并不能达到人机协作的要求。
发明内容
为了解决上述背景技术中存在的技术问题,本发明提供一种基于目标检测和姿态检测框架的行为识别方法及系统,其仅使用目标检测算法对行为追踪上的局限性,通过引入姿态检测框架与神经网络分类器,可以在保证行为分类准确性的同时,提高行为分类的速度。
为了实现上述目的,本发明采用如下技术方案:
本发明的第一个方面提供一种基于目标检测和姿态检测框架的行为识别方法,其包括:
获取目标人物图像;
利用目标检测框架对目标人物图像进行行人检测,并对检测到的目标进行图像分割,得到目标图片;
利用姿态检测框架从目标图片中提取人体关键骨骼点特征;
对人体关键骨骼点特征进行行为分类,得到目标人物的具体行为类别。
本发明的第二个方面提供一种基于目标检测和姿态检测框架的行为识别系统,其包括:
图像获取模块,其用于获取目标人物图像;
目标检测及分割模块,其用于利用目标检测框架对目标人物图像进行行人检测,并对检测到的目标进行图像分割,得到目标图片;
关键骨骼点特征提取模块,其用于利用姿态检测框架从目标图片中提取人体关键骨骼点特征;
行为分类模块,其用于对人体关键骨骼点特征进行行为分类,得到目标人物的具体行为类别。
本发明的第三个方面提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述所述的基于目标检测和姿态检测框架的行为识别方法中的步骤。
本发明的第四个方面提供一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述所述的基于目标检测和姿态检测框架的行为识别方法中的步骤。
与现有技术相比,本发明的有益效果是:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于山东大学,未经山东大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110834226.1/2.html,转载请声明来源钻瓜专利网。





