[发明专利]一种深度神经网络模型的在线训练方法在审
申请号: | 202210599504.4 | 申请日: | 2022-05-30 |
公开(公告)号: | CN115035363A | 公开(公告)日: | 2022-09-09 |
发明(设计)人: | 耿可可;丁鹏博;殷国栋;祝小元;王金湘;张宁;庄伟超 | 申请(专利权)人: | 东南大学 |
主分类号: | G06V10/774 | 分类号: | G06V10/774;G06V10/82;G06N3/04;G06N3/08;G06V10/764;G06V10/74;G06V10/26;G06T7/277 |
代理公司: | 北京德崇智捷知识产权代理有限公司 11467 | 代理人: | 曹婷 |
地址: | 211100 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 深度 神经网络 模型 在线 训练 方法 | ||
本发明公开了一种深度神经网络模型的在线训练方法,涉及深度学习技术领域,解决了网络模型在训练完成后无法使用新的数据集对模型进行及时优化调整的技术问题,其技术方案要点是通过离线训练的实例分割网络对采集图像进行实例分割,基于多假设跟踪算法对多目标进行数据关联,再基于卡尔曼滤波算法对每个目标的运动状态进行估计,当漏检情况发生时,利用生成式对抗网络生成样本图像,实例分割网络利用新样本(即样本图像)进行在线训练,在线训练的方法可以根据实时反馈的数据,快速地进行网络模型参数的优化,从而可以使深度神经网络模型在实际应用中取得比离线训练更好的效果。
技术领域
本申请涉及深度学习技术领域,尤其涉及一种深度神经网络模型的在线训练方法。
背景技术
深度神经网络(DNN)目前是许多人工智能应用的基础。由于深度神经网络在语音识别和图像识别上的突破性应用,深度神经网络的应用量有了爆炸性的增长。深度神经网络如今被部署到了自动驾驶汽车、癌症检测、复杂游戏等多个领域。
基于深度神经网络的方法因其具有强大的表征能力和较高的检测精度而被广泛应用,但是目前常用的神经网络训练过程需要大量带标签的数据集,这些有效数据集的获取往往是十分困难的。针对小样本数据,如果继续采用传统的深度神经网络模型来进行离线训练,在这种情况下很容易产生过拟合,在实际应用过程中难以达到满意的识别效果。
目前,深度神经网络模型的训练通常以离线学习的方式进行,网络模型在训练完成后无法使用新的数据集对模型进行及时的优化调整。
发明内容
本申请提供了一种深度神经网络模型的在线训练方法,其技术目的是通过在线学习的方式来提高神经网络模型的性能,根据线上反馈的数据,实时快速地进行模型参数的调整,使得模型能够更加符合实际的应用场景,提高模型预测准确率。
本申请的上述技术目的是通过以下技术方案得以实现的:
一种深度神经网络模型的在线训练方法,包括:
S1:经过离线训练的实例分割网络对采集图像进行实例分割,得到每帧图像中每个目标的实例掩膜、边界框位置、类别信息及其对应的置信度;
S2:基于多假设跟踪算法对当前帧中每个目标的检测结果与先前帧中每个目标进行数据匹配,若当前帧检测结果中某个目标在先前帧中无对应的目标匹配,则当前帧中产生新目标;若先前帧估计结果中某个目标在当前帧中无对应的检测结果匹配,则表示该目标在当前帧出现漏检;
其中,先前帧中每个目标在当前帧中的位置值是基于卡尔曼滤波算法进行估计的估计结果;
S3:当漏检情况发生时,通过生成式对抗网络对出现漏检的目标进行运动状态估计,生成用于实例分割网络在线学习的样本图像;
S4:根据所述样本图像对实例分割网络进行在线训练,对未冻结的参数进行更新,得到最终的实例分割网络。
本申请的有益效果在于:通过离线训练的实例分割网络对采集图像进行实例分割,基于多假设跟踪算法对多目标进行数据关联,再基于卡尔曼滤波算法对每个目标的运动状态进行估计,当漏检情况发生时,利用生成式对抗网络生成样本图像,实例分割网络利用新样本(即样本图像)进行在线训练,在线训练的方法可以根据实时反馈的数据,快速地进行网络模型参数的优化,从而可以使深度神经网络模型在实际应用中取得比离线训练更好的效果。
附图说明
图1为本申请所述方法的流程图;
图2为基于多假设跟踪算法进行多目标数据管理的流程图。
具体实施方式
下面将结合附图对本申请技术方案进行详细说明。
如图1所示,一种深度神经网络模型的在线训练方法,包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东南大学,未经东南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210599504.4/2.html,转载请声明来源钻瓜专利网。