[发明专利]一种基于缩略表示的快速人体姿态估计方法在审
申请号: | 202211184075.0 | 申请日: | 2022-09-27 |
公开(公告)号: | CN115601787A | 公开(公告)日: | 2023-01-13 |
发明(设计)人: | 张永强;丁明理;张子安;张印;田瑞;张漫 | 申请(专利权)人: | 哈尔滨工业大学 |
主分类号: | G06V40/10 | 分类号: | G06V40/10;G06V10/82;G06V10/72;G06V10/774;G06N3/04;G06N3/08 |
代理公司: | 哈尔滨华夏松花江知识产权代理有限公司 23213 | 代理人: | 岳昕 |
地址: | 150001 黑龙*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 缩略 表示 快速 人体 姿态 估计 方法 | ||
一种基于缩略表示的快速人体姿态估计方法,涉及计算机视觉技术领域,针对现有技术中通过小尺寸图像减少模型的计算量时,会导致模型准确率下降的问题。本申请采用基于风格监督的在线图像缩尺度器自适应地滤除输入图像中的冗余信息,并将剩余的关联信息压缩为小尺寸的缩略图,使得网络运算量大幅降低,并且能够保证预测准确率;使用双分支自动编码的训练策略将知识蒸馏技术引入对轻量化网络的训练,使得缩略特征图能够提取到更多关键信息,使得预测准确率进一步提高。训练完备的缩尺度器可以直接替代传统的图像缩尺度技术。本申请解决了现有人体姿态估计加速方法实施复杂、难以泛化、准确率低的问题。
技术领域
本发明涉及计算机视觉技术领域,具体为一种基于缩略表示的快速人体姿态估计方法。
背景技术
人体姿态估计的目标是从给定的图像或视频中确定人的身体关键点(部位/关节)的位置或空间位置,该技术使用基于图像的观察获得关节人体的姿态,关节人体由关节和刚性部分组成。作为计算机视觉领域一项重要的基础研究,人体姿态估计是行为识别、人类意图预测、智能监控等任务的技术基础。当前的人体姿态估计研究多基于深度学习,通过使用大规模的全卷积网络(FCN,Fully convolutional network)在较大尺寸的图像上进行推断来实现更高的精度。尽管已经取得了良好的性能,但庞大的运算量使得它难以被应用于实时系统。
为了加速人体姿态估计网络,现有工作将深的或宽的网络模型压缩为窄的(通道较少)或浅的(层数较少)网络,并使用知识蒸馏技术保持估计精度。虽然这种方法取得了一定的效果,但这样的方法在以下方面受到限制:(1)简易性。FCN强大的拟合能力与其精巧的结构高度耦合,因此有必要精心设计网络的收缩策略,以保持其结构特性。(2)普适性。现有的轻量级模型是通过直接减少沙漏网络(Hourglass)堆叠数量获得的,例如将一个反复堆叠8级的Hourglass缩减为反复堆叠4级。这种方法可以有效地应用于特定的堆叠结构网络,但不能推广到其他非堆叠结构的高级网络,例如SimpleBaseline和HRNet等。
降低深度模型计算复杂度的另一种有效的方法是在小尺寸图像上进行推断。随着特征图的空间大小减小,所需的运算量将随之减少。该方法可以解决基于网络压缩方法的局限性。首先,该方法只需简单地减小输入图像的尺寸,避免了削弱网络的表示能力。此外,该方法可以推广到任意高级模型,因为FCN允许任意尺寸的输入。然而,直接减小图像尺寸将不可避免地会丢失部分关键信息,从而导致最终估计性能急剧下降。
发明内容
本发明的目的是:针对现有技术中通过小尺寸图像减少模型的计算量时,会导致模型准确率下降的问题,提出一种基于缩略表示的快速人体姿态估计方法。
本发明为了解决上述技术问题采取的技术方案是:
一种基于缩略表示的快速人体姿态估计方法,包括:
获取待检测图像,并得到待检测图像的缩略图的步骤,以及
将待检测图像的缩略图输入训练好的人体姿态估计网络进行人体姿态估计的步骤;
所述人体姿态估计网络依次包括缩尺度器、主干网络、上采样模块、网络头;
在主干网络中选取一个中间特征图为监测点,该监测点之前的网络层为主干网络的前半部分,该监测点之后的网络层为主干网络的后半部分;
所述缩尺度器以及主干网络的前半部分构成编码器;
所述主干网络的后半部分、上采样模块以及网络头构成热力图解码器;
所述人体姿态估计网络的训练过程通过引入教师网络进行辅助训练,所述教师网络依次包括主干网络和网络头,所述教师网络中包括的主干网络和网络头与人体姿态估计网络中的主干网络和网络头结构一致;
所述人体姿态估计网络的训练过程包括两个训练阶段:
训练阶段1:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工业大学,未经哈尔滨工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211184075.0/2.html,转载请声明来源钻瓜专利网。