[发明专利]一种解耦的增量目标检测方法在审
申请号: | 202211195522.2 | 申请日: | 2022-09-28 |
公开(公告)号: | CN115546581A | 公开(公告)日: | 2022-12-30 |
发明(设计)人: | 杨云;林钰尧;张炎 | 申请(专利权)人: | 云南大学 |
主分类号: | G06V10/774 | 分类号: | G06V10/774;G06V10/82;G06V10/776;G06N3/04;G06N3/08 |
代理公司: | 昆明金科智诚知识产权代理事务所(普通合伙) 53216 | 代理人: | 彭志鼎 |
地址: | 650091 云*** | 国省代码: | 云南;53 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 增量 目标 检测 方法 | ||
1.一种解耦的增量目标检测方法,其特征在于,包括以下步骤:
S1:目标检测数据集预处理:将原始的目标检测数据集划分为训练集、验证集和测试集;同时对训练集进行数据增强操作;所述原始的目标检测数据集由安防检测系统中基本检测目标的图像组成;所述基本检测目标为安防检测系统中已实现检测的旧类别;
S2:对目标检测模型进行初始学习:将训练集输入到目标检测模型后,RPN网络提取proposal,而后将proposal提交给RCNN进行进一步处理,得到分类和回归结果,最后通过损失函数计算相应损失并通过反向传播对目标检测模型进行优化;
S3:对目标检测模型进行增量学习:利用新类数据和部分旧类数据进行训练,训练过程除了包含初始学习阶段的步骤外,还通过知识蒸馏在模型Backbone层和RCNN层进行特征蒸馏来保留相应的旧知识;所述新类数据为后续根据安防检测系统的需求增加的新品类的图像;所述旧类数据为安防检测系统中的基本检测目标的图像;
S4:对增量学习后的目标检测模型进行平衡微调;
S5:将调整后的目标检测模型部署在安防检测系统中,调整后的目标检测模型根据输入的目标图像进行增量目标检测,并将检测结果进行保存。
2.根据权利要求1所述的一种解耦的增量目标检测方法,其特征在于,所述目标检测模型为使用了解耦模块和Cosine分类器的Faster R-CNN模型,其中,所述解耦模块为通道级别,分别添加于RCNN和RPN之前;所述Cosine分类器位于分类层,用于获取没有分类偏好的分类结果。
3.根据权利要求1所述的一种解耦的增量目标检测方法,其特征在于,所述S2具体为:
S21:将训练集的图像输入至目标检测模型的Backbone,Backbone包含一系列卷积神经网络用来进行特征提取,经过卷积神经网络的处理,Backbone输出一个高维的FeatureMap;Feature Map再经过解耦模块,将输出分别输出Feature MapRPN和Feature MapRCNN;
S22:目标检测模型为Feature MapRPN生成一系列anchor,随后RPN网络对上一步生成的Feature MapRPN进行一个3×3的卷积操作,然后分两条路径,一条判断anchor所属的类别属于前景还是背景,另一条计算bounding box的预测值;RPN网络最后通过TopK分类提取K个分数高的anchor作为proposal输出;
S23:将proposal和Feature MapRCNN相对应从而得到proposal feature,然后将proposal feature送入RCNN网络进行分类和回归操作,最后通过损失函数计算相应损失并通过反向传播进行目标检测模型优化。
4.根据权利要求1所述的一种解耦的增量目标检测方法,其特征在于,所述S3中的知识蒸馏包括以下步骤:
S31:加载两次步骤S2中优化的模型,其中一个模型进行冻结作为教师模型,另一个模型不进行冻结作为学生模型;
S32:收集教师模型和学生模型产生的Feature Map并通过均方根误差进行优化,从而让两者的Feature Map差异最小;
S33:分别收集教师模型和学生模型在RCNN层从Cosine分类器中输出相应的分类logic,并通过cosine Embedding Loss对属于旧类的logic进行优化,让教师模型和学生模型的分类结果最相似,从而让新学习的目标检测模型保留之前目标检测模型对于旧类别的性能。
5.根据权利要求1所述的一种解耦的增量目标检测方法,其特征在于,所述S4进行平衡微调的过程包括以下步骤:
S41:对新旧数据进行平衡处理,新旧类数据分别只保留十张作为训练数据;
S42:将学习率调节为步骤S3中增量学习阶段的百分之一,防止大幅度修改模型参数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于云南大学,未经云南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211195522.2/1.html,转载请声明来源钻瓜专利网。