[发明专利]基于条件批归一化的连续学习方法和装置在审
| 申请号: | 202010818695.X | 申请日: | 2020-08-14 |
| 公开(公告)号: | CN112101417A | 公开(公告)日: | 2020-12-18 |
| 发明(设计)人: | 丁贵广;项刘宇 | 申请(专利权)人: | 清华大学 |
| 主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/08 |
| 代理公司: | 北京清亦华知识产权代理事务所(普通合伙) 11201 | 代理人: | 王海燕 |
| 地址: | 10008*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 条件 归一化 连续 学习方法 装置 | ||
1.一种基于条件批归一化的连续学习方法,其特征在于,包括:
获取当前任务的原特征向量,通过神经网络的条件批归一化变换将所述原特征向量转化为任务自适应特征向量;
通过类别分类器对所述任务自适应特征向量进行类别分类,根据类别分类结果建立类别分类损失函数;
获取任务分类器对条件批归一化的变换参数进行任务分类,根据任务分类结果建立任务分类损失函数;
根据所述类别分类损失函数和所述任务分类损失函数对所述当前新任务对应的样本进行训练。
2.如权利要求1所述的方法,其特征在于,还包括:
获取数据重演集合,以及神经网络的初始参数;
根据所述数据重演集合和所述神经网络的初始参数对神经网络进行约束。
3.如权利要求1所述的方法,其特征在于,所述通过神经网络的条件批归一化变换将所述原特征向量转化为任务自适应特征向量的公式为:
其中,f为当前任务的原特征向量,E[f]为当前任务的原特征向量的均值,Var[f]为当前任务的原特征向量的方差,∈为常量,βi、γi为条件批归一化变换参数,为任务自适应特征向量。
4.如权利要求1所述的方法,其特征在于,所述类别分类损失函数为:
其中,Lcls为类别分类损失函数,yi为真实类别标签,为类别分类器参数,CrossEntropy(A,B)为计算A,B交叉熵损失函数。
5.如权利要求1所述的方法,其特诊在于,所述任务分类损失函数为:
其中,Ltask为任务分类损失函数,Ti为第i个任务,为任务分类器参数,concat[β,γ]为串联后的自适应批归一化参数。
6.如权利要求4或5所述的方法,其特诊在于,根据所述类别分类损失函数和所述任务分类损失函数对所述当前新任务对应的样本进行训练,包括:
将所述类别分类损失函数和所述任务分类损失函数进行相加得到总损失函数;
根据所述总损失函数对当前新任务对应的样本进行训练。
7.一种基于条件批归一化的连续学习装置,包括:
转化模块,用于获取当前任务的原特征向量,通过神经网络的条件批归一化变换将所述原特征向量转化为任务自适应特征向量;
类别分类模块,用于通过类别分类器对所述任务自适应特征向量进行类别分类,根据类别分类结果建立类别分类损失函数;
任务分类模块,用于获取任务分类器对条件批归一化的变换参数进行任务分类,根据任务分类结果建立任务分类损失函数;
训练模块,用于根据所述类别分类损失函数和所述任务分类损失函数对所述当前新任务对应的样本进行训练。
8.如权利要求7所述的装置,其特征在于,还包括:
获取模块,用于获取数据重演集合,以及神经网络的初始参数;
约束模块,用于根据所述数据重演集合和所述神经网络的初始参数对神经网络进行约束。
9.如权利要求7所述的装置,所述转化模块,具体用于通过神经网络的条件批归一化变换将所述原特征向量转化为任务自适应特征向量的公式为:
其中,f为当前任务的原特征向量,E[f]为当前任务的原特征向量的均值,Var[f]为当前任务的原特征向量的方差,∈为常量,βi、γi为条件批归一化变换参数,为任务自适应特征向量。
10.如权利要求9所述的装置,所述转化模块,具体用于:
将所述类别分类损失函数和所述任务分类损失函数进行相加得到总损失函数;
根据所述总损失函数对当前新任务对应的样本进行训练。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学,未经清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010818695.X/1.html,转载请声明来源钻瓜专利网。





