[发明专利]一种面向深度学习的差分隐私可用性度量方法有效
申请号: | 202111270189.2 | 申请日: | 2021-10-29 |
公开(公告)号: | CN114118407B | 公开(公告)日: | 2023-10-24 |
发明(设计)人: | 关志涛;罗丹 | 申请(专利权)人: | 华北电力大学 |
主分类号: | G06N3/08 | 分类号: | G06N3/08;G06N3/084;G06N3/048;G06F18/214 |
代理公司: | 南京中律知识产权代理事务所(普通合伙) 32341 | 代理人: | 李建芳 |
地址: | 102206 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 面向 深度 学习 隐私 可用性 度量 方法 | ||
1.一种面向深度学习的差分隐私可用性度量方法,其特征在于:包括如下步骤:
步骤1:随机梯度下降训练:深度学习模型中神经网络的结构由神经元之间的连接触发,能够将数据从简单的特征抽象为复杂的结果;首先将数据输入神经元,然后从输入层到隐藏层到输出层执行前向传播,得到随机化权重下预测值和真实值之间的差值,再根据目标函数对误差的矫正进行反向传播,由梯度决定每次更新的大小和方向,并根据输入数据不断修正每个神经元获得的参数值;
步骤2:随机噪声生成,用拉普拉斯机制生成随机噪声来对梯度信息进行保护;
步骤3:可用性度量;
步骤4:隐私预算调整;
步骤5:数据加噪;
步骤6:梯度值更新。
2.如权利要求1所述的面向深度学习的差分隐私可用性度量方法,其特征在于:步骤1包括:
步骤1.1初始化参数:
随机初始化权重参数、epoch、batch大小以及迭代次数神经网络需要的训练参数的大小;
步骤1.2从输入到输出计算中间值:
将数据输入神经网络,从输入到输出依次计算中间值,若第l层的第j个神经元上层共有k个神经元输出,对于此神经元来说激活函数即中间值为:经过逐层计算激活值,得到最终模型的输出其中,权重参数代表了中间第l-1层的第k个神经元向第l层的第j个神经元传递参数,表示第l层第j个神经元的偏置,表示第l层第j个神经元的激活函数的输出,表示第l-1层第k个神经元的激活函数的输出,其中σ即为这里的激活函数,本发明中采用的是ReLU函数;
步骤1.3得到实际输出与预测输出之间的损失:
得到模型输出后,利用链式法则,进行反向梯度求导,逐层回传误差,之后计算得到每个神经元对总误差的贡献,用该误差来修正梯度权重参数w;
神经网络的参数学习是一个非线性优化问题,通过优化损失函数间接优化模型参数,并提高模型性能;假设需要优化的目标函数为:其中L代表每个样本的损失函数,f(x;θ)是当样本输入x时的预测输出,y是真实输出,是训练集上的经验分布,经验分布和真实数据分布越接近,模型预测结果和真实结果越接近,是对数据集上每一个数据点(x,y)求经验分布得到的期望值;
经验分布来自训练样本,而所有的数据无法被收集到,因此训练样本能够代表的样本信息越多,模型在测试集上的表现越优;用期望衡量真实数据分布与经验分布之间的差别,然后通过将期望损失最小化来不断迭代模型,该训练过程称为经验风险最小化,其中m代表了训练样本的数目,i是一个变量,表示从第1个到第m个样本循环并累加的过程,公式如下:
步骤1.4反向传播计算梯度:
得到损失函数后,利用误差的反向传播计算梯度,即梯度下降以初始化的随机参数开始,在每个步骤中计算要优化的非线性函数的梯度,并更新参数,直到算法收敛到局部最优,按照数据生成分布抽取m个独立同分布的小批量样本,通过计算它们的梯度均值,可以得到梯度的无偏估计。
3.如权利要求1或2所述的面向深度学习的差分隐私可用性度量方法,其特征在于:步骤2中,在执行随机梯度下降过程中,梯度信息是由数据计算而来的,若梯度信息遭到泄露,真实的数据信息也可能泄露,用拉普拉斯机制生成随机噪声来对梯度信息进行保护。
4.如权利要求1或2所述的面向深度学习的差分隐私可用性度量方法,其特征在于:步骤3包括:
步骤3.1:在满足数据可用性的前提下进行加噪,即给出一个阈值限定数据可用性的损失;
步骤3.2:利用KL散度对加噪前后输出的相似性进行衡量。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华北电力大学,未经华北电力大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111270189.2/1.html,转载请声明来源钻瓜专利网。