[发明专利]对抗样本的生成方法、装置、电子设备以及存储介质在审
申请号: | 202310403855.8 | 申请日: | 2023-04-14 |
公开(公告)号: | CN116468111A | 公开(公告)日: | 2023-07-21 |
发明(设计)人: | 崔恺旭;王洋;包沉浮;吕中厚;田伟娟;张华正;黄英仁;周光照;王国秋;高梦晗 | 申请(专利权)人: | 北京百度网讯科技有限公司 |
主分类号: | G06N3/094 | 分类号: | G06N3/094 |
代理公司: | 北京易光知识产权代理有限公司 11596 | 代理人: | 阎敏;金爱静 |
地址: | 100085 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 对抗 样本 生成 方法 装置 电子设备 以及 存储 介质 | ||
本公开提供了一种对抗样本的生成方法、装置、电子设备以及存储介质,涉及人工智能技术领域,尤其涉及机器学习、自然语言处理等领域。具体实现方案为:基于第一探索扰动范围中的第一探索扰动,对第一结构化数据进行扰动,得到第二结构化数据;基于预设模型,得到第二结构化数据的模型预测结果;基于第二结构化数据的模型预测结果,对第一探索扰动范围进行调整,得到第二探索扰动范围;在第二探索扰动范围符合预设条件的情况下,基于第二探索扰动范围中的第二探索扰动,得到第一结构化数据的对抗样本。本公开有利于针对不同的结构化数据查找到对应的最小有效的探索扰动,使得对抗攻击适用于结构化数据。
技术领域
本公开涉及人工智能技术领域,尤其涉及机器学习、自然语言处理等领域,具体涉及一种对抗样本的生成方法、装置、电子设备以及存储介质。
背景技术
机器学习在许多任务中取得先进的性能,包括但不限于图片分类、文本挖掘、音频处理等。随着机器学习技术的发展,机器学习模型的鲁棒性与安全性越来越受到关注。
对抗攻击是指对机器学习模型的输入样本施加轻微的扰动来生成对抗样本,以使得目标机器学习模型的输出结果错误。对抗攻击可以用于评估模型的风险,帮助提高模型的鲁棒性、安全性和可解释性。
目前,对抗攻击的研究主要集中在深度神经网络以及深度神经网络擅长的领域,例如计算机视觉或音频处理,这些领域中的样本数据通常是同质的非结构化数据。针对非结构化数据的对抗攻击方案并不适用于结构化数据。
发明内容
本公开提供了一种对抗样本的生成方法、装置、电子设备以及存储介质。
根据本公开的一方面,提供了一种对抗样本的生成方法,包括:
基于第一探索扰动范围中的第一探索扰动,对第一结构化数据进行扰动,得到第二结构化数据;
基于预设模型,得到第二结构化数据的模型预测结果;
基于第二结构化数据的模型预测结果,对第一探索扰动范围进行调整,得到第二探索扰动范围;
在第二探索扰动范围符合预设条件的情况下,基于第二探索扰动范围中的第二探索扰动,得到第一结构化数据的对抗样本。
根据本公开的另一方面,提供了一种对抗样本的生成装置,包括:
结构化数据生成模块,用于基于第一探索扰动范围中的第一探索扰动,对第一结构化数据进行扰动,得到第二结构化数据;
模型预测结果模块,用于基于预设模型,得到第二结构化数据的模型预测结果;
探索扰动范围生成模块,用于基于第二结构化数据的模型预测结果,对第一探索扰动范围进行调整,得到第二探索扰动范围;
对抗样本生成模块,用于在第二探索扰动范围符合预设条件的情况下,基于第二探索扰动范围中的第二探索扰动,得到第一结构化数据的对抗样本。
根据本公开的另一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与该至少一个处理器通信连接的存储器;其中,
该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器执行,以使该至少一个处理器能够执行本公开实施例中任一的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,该计算机指令用于使该计算机执行根据本公开实施例中任一的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,该计算机程序在被处理器执行时实现根据本公开实施例中任一的方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京百度网讯科技有限公司,未经北京百度网讯科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310403855.8/2.html,转载请声明来源钻瓜专利网。