[发明专利]基于人物身份特征识别的行为模式判断方法有效
申请号: | 201811173577.7 | 申请日: | 2018-10-09 |
公开(公告)号: | CN109271961B | 公开(公告)日: | 2021-02-02 |
发明(设计)人: | 李正平;华清松;张腾;赵菊蓉 | 申请(专利权)人: | 成都阳帆网络科技有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00 |
代理公司: | 成都立新致创知识产权代理事务所(特殊普通合伙) 51277 | 代理人: | 谭德兵 |
地址: | 610017 四川省成都市中国(四川)自由贸*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 人物 身份 特征 识别 行为 模式 判断 方法 | ||
1.基于人物身份特征识别的行为模式判断方法,其特征在于,该方法步骤如下:
S1.根据不同应用场景进行身份特征和行为模式建模并存储在后台服务器中,所述的身份特征和行为模式应符合应用场景的规定;
S2.在应用场景安装高清摄像头,360°全方位采集场景内所有人物的身份特征和动作行为,并将采集到的信息上传到后台服务器;
S3.后台服务器将采集到的身份特征和动作行为与身份特征模型和行为模式模型进行比对,对不符合身份特征模型和行为模式模型的事件进行标记并生产记录文件;
所述身份特征模型包括应用场景下目标人员的体型特征模型和着装特征模型;
所述行为模式包括应用场景下目标人员的肢体动作模型、行动轨迹模型;
所述应用场景下目标人员包括该应用场景的工作人员和非工作人员,后台服务器事先采集工作人员的体型特征、并定义工作人员的着装特征;
然后根据工作人员的日常工作内容定义肢体动作模型A和行为轨迹模型A;对于非工作人员则根据应用场景定义肢体动作模型B和行为轨迹模型B;
进行行为模式判断时,首先判断目标是工作人员还是非工作人员;
如果是工作人员则以肢体动作模型A和行为轨迹模型A为标准进行行为模式判断;
如果是非工作人员则以肢体动作模型B和行为轨迹模型B为标准进行行为模式判断;
所述后台服务器记录工作人员的日常行为轨迹,然后根据对这些日常行为轨迹提取相同特征点,从而匹配出该工作人员特有的行为特征,然后将该行为特征写入后台服务器的肢体动作模型A中,并更新该肢体动作模型A;
所述后台服务器模式判断采用OpenCV算法框架,综合应用adaboost 、人工神经网络CNN、Faster、R-CN进行判断;
所述判断步骤如下:
S01:将采集到的视频画面分割成若干视频片段,对每一段视频片段按图片帧生成若干图片,图片按时间顺序依次编号;
S02:对每一帧图片中的人物进行识别,将图片中的人物分为工作人员和非工作人员;
S03:提取每一帧图片中工作人员和非工作人员的行为特征,采用双线程进行比对;
将工作人员行为特征与肢体动作模型A比对;
将非工作人员行为特征与肢体动作模型B比对;
S04:提取连续图片,通过前后帧图片中目标人员的位置分别绘制出工作人员行动轨迹和非工作人员行动轨迹;
将工作人员行动轨迹与行为轨迹模型A进行比对;
将非工作人员行动轨迹与行为轨迹模型B进行比对;
S05:当工作人员行为特征与肢体动作模型A相比以及行动轨迹与行为轨迹模型A相比低于阈值A时,记录当下事件并生成日志;
当非工作人员行为特征与肢体动作模型B相比以及行动轨迹与行为轨迹模型B相比超过阈值B时,记录当下事件并进行报警。
2.根据权利要求1所述的基于人物身份特征识别的行为模式判断方法,其特征在于,所述阈值A是指采集到的工作人员行为特征、行动轨迹与肢体动作模型A、行为轨迹模型A的重合率低于85%;
所述阈值B是采集到的非工作人员行为特征、行动轨迹与肢体动作模型B、行为轨迹模型B相比重合率超过60%。
3.根据权利要求2所述的基于人物身份特征识别的行为模式判断方法,其特征在于,所述肢体动作模型A、行为轨迹模型A是指工作人员规范操作下的行为模型,所述肢体动作模型B、行为轨迹模型B是指非工作人员非规范操作的行为模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于成都阳帆网络科技有限公司,未经成都阳帆网络科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811173577.7/1.html,转载请声明来源钻瓜专利网。