[发明专利]一种增强训练人工智能模型的优化方法有效
申请号: | 202111001506.0 | 申请日: | 2021-08-30 |
公开(公告)号: | CN113449865B | 公开(公告)日: | 2021-12-07 |
发明(设计)人: | 周晓辉;袁博 | 申请(专利权)人: | 算筹(深圳)信息科技有限公司 |
主分类号: | G06N3/08 | 分类号: | G06N3/08;G06K9/62 |
代理公司: | 济南誉琨知识产权代理事务所(普通合伙) 37278 | 代理人: | 庞庆芳 |
地址: | 518000 广东省深圳市福田区福*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 增强 训练 人工智能 模型 优化 方法 | ||
1.一种增强训练人工智能模型的优化方法,包括步骤,S1、基于要训练的神经网络模型,对获取的原始数据集合的样本进行特征提取后,作为原始数据组,训练一个未经过对抗性训练的识别模型,即预训练模型;
其特征在于,还包括以下步骤:
S2、使用三级的梯度优化生成方法生成对抗样本组I;将预训练模型作为变换算法函数中计算变换概率的一个参数,对在梯度优化生成方法中采用迭代的对抗样本进行变换,用变换算法函数变换生成对抗样本组II;
S3、将对抗样本组I和原始数据组混合生成混合攻击样本组I,并将对抗样本组I、对抗样本组II和原始数据组混合生成混合攻击样本组II,利用两个混合样本攻击组再次进行识别模型的攻击训练,得到两个攻击训练后模型;
S4、对两个攻击训练后模型进行差异性训练,混合攻击样本组I进行预攻击并作为参照,混合攻击样本组II进行二次攻击,若二次攻击达到移动目标防御成功的差异性函数,则得到最终的防御模型,即训练好的识别模型,否则重新生成对抗样本组II,生成对抗样本组II的方法为:调整步骤S2中梯度优化生成算法的迭代步长以及变换算法中的变换概率,再次执行步骤S3-S4;
所述S2中的梯度优化生成方法包括以下步骤:
S2.1、通过最大损失函数J(x,y,θ)获取对抗样本xadv,在损失函数对于x的梯度变化最大的方向上寻找扰动r,即其中,sign表示符号函数,是损失函数对于输入x的梯度,||r||∞≤ε;
S2.2、采用迭代方式寻找扰动,即其中t是当前迭代次数,迭代步长T是整个迭代的总次数,Proj将每次更新的对抗样本投影到x的ε邻域内;
S2.3、将S2.2中的迭代部分用动量迭代代替,基于动量的梯度下降的多步迭代方法表示为其中,u是动量衰减因子;
所述S2中的变换算法函数为其中p为变换概率,随机变换函数其中,ξ为概率系数且满足0<ξ<1,G(x)为预训练模型作为计算变换概率的参数的函数。
2.根据权利要求1所述的一种增强训练人工智能模型的优化方法,其特征在于,S2.1中扰动r满足函数:
其中,D(r0)表示扰动程度的距离函数,F表示一个训练好的分类模型,x0+r0表示扰动后的样本,f1为扰动样本在原始类别输出置信度;f2为样本的扰动距离,Z(r0)表示整个扰动范围内所有扰动样本在这两个方向上的分布情况。
3.根据权利要求2所述的一种增强训练人工智能模型的优化方法,其特征在于,将Z(r0)优化具有边界限制的多目标的优化问题,寻找最小扰动,优化后的函数为:
4.根据权利要求3所述的一种增强训练人工智能模型的优化方法,其特征在于,S4中移动目标防御的差异性函数为:
其中,Fa∈MA表示攻击者选择的一个代理模型,MA表示一组代理模型,Fd∈N表示防御方通过博弈选择的系统成员模型,N表示系统成员模型的集合,E(Fa,Fd)表示Fa上生成的对抗样本攻击Fd的成功率,DL值越大,移动目标防御的效果越好。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于算筹(深圳)信息科技有限公司,未经算筹(深圳)信息科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111001506.0/1.html,转载请声明来源钻瓜专利网。