[发明专利]探索联邦学习隐私的交互可视化系统在审
| 申请号: | 202211210648.2 | 申请日: | 2022-09-30 |
| 公开(公告)号: | CN115577262A | 公开(公告)日: | 2023-01-06 |
| 发明(设计)人: | 肖侬;郭烨婷;蔡志平;周桐庆 | 申请(专利权)人: | 中国人民解放军国防科技大学 |
| 主分类号: | G06F18/214 | 分类号: | G06F18/214;G06N20/00 |
| 代理公司: | 长沙国科天河知识产权代理有限公司 43225 | 代理人: | 彭小兰 |
| 地址: | 410073 湖*** | 国省代码: | 湖南;43 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 探索 联邦 学习 隐私 交互 可视化 系统 | ||
本申请涉及一种探索联邦学习隐私的交互可视化系统。所述系统包括后端计算模块和前端视图模块;数据拥有者从前端视图模块选择训练样本,后端计算模块根据训练样本以及全局模型,训练本地模型,根据攻击方式攻击本地模型训练过程,将攻击结果显示在前端视图模块中,采用差分隐私方式保护本地模型隐私,并在前端视图模块显示隐私保护强度调节接口,显示训练样本自定义接口以使数据拥有者根据攻击结果选择训练样本,根据数据拥有者调节训练样本自定义接口的信息,调用模型遗忘分析算法,分析得到训练样本的当前本地训练状态以及当前训练所得模型的准确性,并展示在前端视图模块中。采用本系统能够提高联邦学习的安全可解释性,优化交互过程中的时延。
技术领域
本申请涉及联邦学习技术领域,特别是涉及一种探索联邦学习隐私的交互可视化系统。
背景技术
无处不在的智能设备促进了我们日常生活中数据的持续感知和生成,但是暴露这些数据会损害用户隐私,为了安全地发现这些无处不在的数据所有者中的知识,联邦学习作为一种分布式机器学习范式最近受到了关注。它允许数据所有者(又称终端)将敏感数据保存在本地,并将训练好的机器学习模型共享给一个集中式服务器,用以聚合生成一个全局模型。因此,它被认为以一种保护隐私的方式打破数据孤岛。目前,联邦学习已经在诸多隐私敏感领域开展应用,如医疗疾病诊断和金融反洗钱等。
尽管联邦学习的本质是为了保护隐私,但研究发现其仍存在严重的隐私漏洞,考虑到共享的参数是本地数据特征的表示,攻击者可以推断属性(例如,客户中是否有特定疾病的图像),甚至可以有条件地重构训练后的图像,重构的人脸图像可能会被用于恶意换脸等。对一般数据所有者而言,联邦学习相当于“黑盒”,直接采用隐私增强技术(例如,差分隐私等)对用户的可解释性差,用户对其隐私保护情况的知悉不足,而且,不同的训练样本通常会面临不同程度的隐私泄露风险,那么数据所有者如何从复杂的参数中理解隐私上下文呢?不同的数据所有者对样本的隐私敏感性和效用期望(如激励、模型性能)也存在较大差异,如何指导数据所有者根据他们的偏好调整隐私设置?因此,迫切需要一种交互式的系统来辅助数据所有者探索隐私情况。
为了缓解这些担忧,已有工作将可视化和联邦学习的技术结合,但这些工作大多是从全局服务器的角度,用来分析和优化模型性能。也有工作从终端的角度展开研究。FATE部署了他们的可视化工具FATEBoard,为终端提供丰富的可视化面板监控所有正在运行的任务的进度,跟踪整个过程,并记录每个算法组件的详细信息。该工作是为了通过可视化的训练过程,吸引数据拥有者理解、参与和探索联邦学习。
然而,这些研究主要目的是检测分布式终端的训练状态和优化联邦聚合模型,忽略了训练过程中的隐私问题是影响用户如何看待联邦学习的一个重要前提。因此,现有技术存在不支持终端探索联邦学习隐私泄露情况的问题,难以提高联邦学习的安全可解释性。
发明内容
基于此,有必要针对上述技术问题,提供一种探索联邦学习隐私的交互可视化系统。
一种探索联邦学习隐私的交互可视化系统,所述系统包括:
后端计算模块和前端视图模块;
数据拥有者从所述前端视图模块选择训练样本,后端计算模块根据所述训练样本以及从全局服务器下载的全局模型,对所述全局模型进行训练,获得本地模型;
后端计算模块根据预先选择的攻击方式,对所述本地模型进行攻击,并将攻击结果显示在所述前端视图模块中;
后端计算模块采用差分隐私方式对所述本地模型进行隐私保护,并在所述前端视图模块显示隐私保护强度的调节接口,以使数据拥有者根据攻击结果调节所述隐私保护强度的调节接口;
后端计算模块在所述前端视图模块显示训练样本自定义接口,以使数据拥有者根据所述攻击结果调节所述训练样本自定义接口;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国人民解放军国防科技大学,未经中国人民解放军国防科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211210648.2/2.html,转载请声明来源钻瓜专利网。





