[发明专利]一种模型更新方法、装置及设备有效
申请号: | 201911324811.6 | 申请日: | 2019-12-17 |
公开(公告)号: | CN111126623B | 公开(公告)日: | 2022-04-19 |
发明(设计)人: | 吴秉哲;陈超超;陈岑;王力 | 申请(专利权)人: | 支付宝(杭州)信息技术有限公司 |
主分类号: | G06N20/00 | 分类号: | G06N20/00 |
代理公司: | 北京博思佳知识产权代理有限公司 11415 | 代理人: | 陈冲 |
地址: | 310000 浙江省杭州市*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 模型 更新 方法 装置 设备 | ||
公开了一种模型更新方法、装置及设备。通过本说明书实施例所提供的方案,在给定阴影集合S和目标样本的情形下,分别计算阴影集合中包含训练样本的先验概率α,以及,根据阴影集合S进行采样并训练模型时所得到的采样模型的采样训练参数分布,进而根据给定模型的训练参数分布和目标样本的特征值计算出目标样本z在阴影集合中的后验概率P,从而可以根据后验概率P和先验概率α的差值来评估该已经训练好的模型对于训练样本集合的隐私泄露程度是否合格,在不合格的情形下则改变目标样本和训练样本集合的归属关系,从而得到新的训练样本集合并进行模型调整,以避免隐私数据泄露。
技术领域
本说明书实施例涉及信息技术领域,尤其涉及一种模型更新方法、装置及设备。
背景技术
在机器学习的过程中,基于数据训练的机器学习模型算法往往面临泄露训练数据中用户隐私的问题。例如,针对模型的成员攻击(Membership Attack),成员攻击的攻击者在给一个已经训练好的模型和一个或者多个特定样本的情形时,尝试判断样本有没有在训练模型的时候被用到,以便反向尝试推导模型的训练方法和识别方法。
基于此,需要一种在机器学习中可以避免隐私泄露的模型更新方案。
发明内容
本申请实施例的目的是提供一种在机器学习中可以避免隐私泄露的模型更新方案。
为解决上述技术问题,本申请实施例是这样实现的:
一种模型更新,包括:
获取阴影集合S和目标样本z,其中,所述阴影集合中的部分样本属于已训练模型的训练样本集合;
确定阴影集合中包含训练样本的先验概率α,以及,确定所述已训练模型中的已训练参数分布θ0;
对所述阴影集合中的样本进行采样,并根据采样结果训练得到采样模型,确定在所述采样模型中的采样训练参数分布θ1;
根据目标样本z的特征值、已训练参数分布θ0和采样训练参数分布θ1确定出目标样本在所述阴影集合中的后验概率P;
计算所述后验概率P和先验概率α的差值,根据所述差值评估所述已训练模型对于所述训练样本集合的隐私泄露程度;
若所述隐私泄露程度超过阈值,改变所述目标样本与所述已训练模型的训练样本集合的归属关系,得到新的训练样本集合,并根据所述新的训练样本集合更新所述已训练模型。
对应的,本说明书实施例还提供一种模型更新,包括:
获取模块,获取阴影集合S和目标样本z,其中,所述阴影集合中的部分样本属于已训练模型的训练样本集合;
确定模块,确定阴影集合中包含训练样本的先验概率α,以及,确定所述已训练模型中的已训练参数分布θ0;
采样模块,对所述阴影集合中的样本进行采样,并根据采样结果训练得到采样模型,确定在所述采样模型中的采样训练参数分布θ1;
后验概率模块,根据目标样本z的特征值、已训练参数分布θ0和采样训练参数分布θ1确定出目标样本在所述阴影集合中的后验概率P;
评估模块,计算所述后验概率P和先验概率α的差值,根据所述差值评估所述已训练模型对于所述训练样本集合的隐私泄露程度;
更新模块,若所述隐私泄露程度超过阈值,改变所述目标样本与所述已训练模型的训练样本集合的归属关系,得到新的训练样本集合,并根据所述新的训练样本集合更新所述已训练模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于支付宝(杭州)信息技术有限公司,未经支付宝(杭州)信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911324811.6/2.html,转载请声明来源钻瓜专利网。