[发明专利]一种人脸验证隐私保护方法和装置在审
| 申请号: | 202310198027.5 | 申请日: | 2023-03-03 |
| 公开(公告)号: | CN116311439A | 公开(公告)日: | 2023-06-23 |
| 发明(设计)人: | 孙军梅;潘振雄;李秀梅;姚茂群 | 申请(专利权)人: | 杭州师范大学 |
| 主分类号: | G06V40/16 | 分类号: | G06V40/16;G06V10/82;G06N3/08;G06N3/0464 |
| 代理公司: | 杭州君度专利代理事务所(特殊普通合伙) 33240 | 代理人: | 朱亚冠 |
| 地址: | 311121 浙江*** | 国省代码: | 浙江;33 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 验证 隐私 保护 方法 装置 | ||
本发明公开一种人脸验证隐私保护方法和装置。向扰动迁移网络T载入经过本发明优化后的模型参数,能够根据不同用户的不同待保护人脸图像,生成对应的隐私保护图像对抗样本,通过上传隐私保护图像对抗样本至社交平台,即使经过平台的图像压缩处理,被未经授权的恶意第三方抓取后也无法进行有效的信息处理活动,从而保障了图像分享服务过程中用户的隐私安全。本发明方法生成的隐私保护对抗样本真实自然,通过用户端和服务器端的两阶段协同生成框架,保证服务器端在构造对抗样本的过程不需要获取用户原始图像,有效避免了用户图像在服务器端可能发生的信息泄露问题,增强了隐私保护过程本身的安全性。
技术领域
本发明属于深度学习下人脸识别领域的人脸验证任务,具体涉及一种人脸验证隐私保护方法和装置。
背景技术
随着硬件技术的算力增长和算法的不断更迭,以卷积神经网络为代表的深度学习技术被广泛应用在了许多机器学习的任务中,如计算机视觉的图像分类、目标检测、人脸识别等等。人脸识别系统的主要任务分为以下两种:1)人脸识别,根据输入的图像返回对应的预测对象身份;2)人脸验证,判断用户输入的图像对是否为同一人。在生物识别技术的使用背景下,隐私保护要求对个人的生物特征数据仅用于特定目的。得利于深度学习模型的不断发展,人脸识别系统已经能够超越人类的识别能力,在基准数据集上实现高达99%的准确率。与此同时,人脸识别系统的广泛应用也给个人信息的保护带来了一定威胁,导致个人照片的身份隐私信息存在潜在风险。各种社交媒体平台(例如Facebook,Instagram)上,未经授权的恶意第三方通过抓取社交平台上的人脸图像,进行非法的信息处理活动,侵犯公民生物识别信息的隐私安全。因此,针对社交平台的图像分享服务,需要在满足图像分享的可用性前提下保护身份信息不被过度识别和利用。
人脸图像的去识别化隐私保护研究可以分为图像处理去识别化、人脸属性去识别化和基于对抗样本的去识别化。图像处理去识别化是一种视觉隐私保护方法,主要采用诸如模糊、像素化处理等视觉处理方法破坏人脸图像的可读性进行去识别化。但研究表明,即使图像处理后的图像经过图像重建恢复后,其身份信息仍能被正确识别。人脸属性去识别化方法是指改变人脸图像面部特征区域进而影响特征提取表征的去识别化方法,例如更换或扭曲面部特征区域进行去识别,从而达到隐私保护的目的。基于对抗样本的去识别是指向人脸图像上添加微小的对抗性扰动以构造对抗样本,可以在不改变人脸图像的可视质量和可辨识特征,满足社交平台可用性要求的前提下,逃避人脸识别系统的识别和检测。对抗样本也可被用于人脸图像去识别化隐私保护,但该过程存在要求直接获取原始图像的数据安全问题。随着云端服务的不断集成完善,为了节约移动设备的算力,社交平台逐步在云端提供包括隐私保护在内的云服务。数据的传输过程以及对图像的临时存储,均存在潜在的信息泄露风险。即主要存在以下三类问题:
1)无法权衡好隐私保护效果和社交平台图像可用性二者之间的关系。通过模糊或像素化的图像处理去识别化方法会严重影响图像的质量,并且其隐私保护效果较差;通过更换或改变面部表征区域的人脸属性去识别化方法改变了对象的面部特征,不再适用于社交分享;基于对抗样本的隐私保护方法,或是生成的对抗样本为了实现较好的隐私保护效果,添加的对抗扰动往往较多故容易被察觉,出现失真和伪影,变得不真实自然。
2)缺乏有效的隐私保护方法对更多的人脸识别模型实现较好的隐私保护效果,隐私保护迁移性较差。对基于对抗样本的隐私保护方法而言,白盒对抗攻击方法生成的隐私保护对抗样本需要了解攻击的目标模型的结构和参数,且生成的对抗样本仅能有效地攻击白盒的人脸识别模型,攻击其他未知的黑盒人脸识别模型时,其隐私保护效果差,无法实现很好的跨模型隐私保护。
3)社交媒体平台为了节约图像的数据存储空间,会对用户上传的图片进行压缩处理。经过社交媒体平台对图像的压缩处理,会消除图片中不容易察觉的高频细节信息和扰动,大大降低隐私保护对抗样本的隐私保护效果。
对此,相比于原始图像的端到端学习,通过扰动的端到端学习即可实现基于对抗样本的隐私保护,扰动信息即使发生信息泄露,也无法被用于有效的信息处理活动,增强了隐私保护过程的安全性。
术语解释
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州师范大学,未经杭州师范大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310198027.5/2.html,转载请声明来源钻瓜专利网。





