[发明专利]一种面向深度学习模型偏见中毒攻击的防御方法在审
申请号: | 202110652511.1 | 申请日: | 2021-06-11 |
公开(公告)号: | CN113536298A | 公开(公告)日: | 2021-10-22 |
发明(设计)人: | 陈晋音;陈一鸣;陈奕芃;郑海斌 | 申请(专利权)人: | 浙江工业大学 |
主分类号: | G06F21/55 | 分类号: | G06F21/55;G06K9/62;G06N20/00 |
代理公司: | 杭州天勤知识产权代理有限公司 33224 | 代理人: | 胡红娟 |
地址: | 310014 浙*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 面向 深度 学习 模型 偏见 中毒 攻击 防御 方法 | ||
1.一种面向深度学习模型偏见中毒攻击的防御方法,其特征在于,所述方法包括以下步骤:
(1)获取原始数据集,并且标记原始数据集中的敏感属性标签和任务标签,构建原始样本数据集T;
(2)对原始样本数据集T进行分块划分,划分为k个子训练集Pi(i∈1,2,3,…,k),使用散列函数h使样本数据x被分配到子训练集Pi中;
(3)在子训练集Pi上,使用基本分类器对其进行训练;
(4)在深度学习模型训练的推理阶段,逐一评估每个基本分类器的输入,并计算每个基本分类器分类正确的数量;
(5)依据步骤(4)筛选出分类准确度最高的基本分类器,利用该分类器对深度学习模型再次进行训练,最终得到新训练的深度学习模型。
2.根据权利要求1所述的面向深度学习模型偏见中毒攻击的防御方法,其特征在于,步骤(2)中,所述的分配方法为:Pi:={x∈T∣h(x)≡i(modk)}。
3.根据权利要求1所述的面向深度学习模型偏见中毒攻击的防御方法,其特征在于,所述的每个子训练集Pi中包含的样本个体数量相等。
4.根据权利要求1所述的面向深度学习模型偏见中毒攻击的防御方法,其特征在于,步骤(3)中,所述的训练方式为:在每个子训练集上均使用基本分类器进行独立训练,所述的基本分类器只能访问自己所在子训练集的数据的类标。
5.根据权利要求1所述的面向深度学习模型偏见中毒攻击的防御方法,其特征在于,步骤(5)中,筛选方法为:定义新的分类器g(T,x),该分类器用于统计每个基本分类器分类正确的数量nc(x),g(T,x):=argmaxnc(x)。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江工业大学,未经浙江工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110652511.1/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种半监督三维点云目标检测方法
- 下一篇:用于制造多单元条带的方法及其应用