[发明专利]视频信息处理方法及装置、存储介质及计算设备有效
申请号: | 201910075369.1 | 申请日: | 2019-01-25 |
公开(公告)号: | CN109918538B | 公开(公告)日: | 2021-04-16 |
发明(设计)人: | 朱军;韦星星;苏航 | 申请(专利权)人: | 清华大学 |
主分类号: | G06F16/75 | 分类号: | G06F16/75;G06K9/62 |
代理公司: | 北京志霖恒远知识产权代理事务所(普通合伙) 11435 | 代理人: | 成丹 |
地址: | 100084 北*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 视频 信息处理 方法 装置 存储 介质 计算 设备 | ||
本发明的实施方式提供了一种视频信息处理方法及装置、存储介质及计算设备。视频信息处理方法包括:获得训练数据集,训练数据集包括多个训练视频,其中每个训练视频具有对应的真实类别标签;获得待处理的视频分类模型;构建以对抗噪声为未知量的目标函数,满足如下条件:令训练视频中尽量少的视频帧上加有对抗噪声,令对抗噪声的幅度尽量小,以及令待处理的视频分类模型对添加对抗噪声后的训练视频分类的结果尽量错;基于训练数据集求解目标函数,获得对抗噪声;利用获得的对抗噪声生成与原始视频对应的对抗视频样本。本发明的上述技术,能够使用稀疏的对抗噪声来对抗现有的视频分类算法,相比于现有技术能够大大提高对抗效果。
技术领域
本发明的实施方式涉及人工智能安全领域,更具体地,本发明的实施方式涉及一种视频信息处理方法及装置、存储介质及计算设备。
背景技术
对抗样本,是指在数据集中通过故意添加细微的干扰所形成的输入样本,导致模型以高置信度给出一个错误的输出。在正则化背景下,通过对抗训练减少原有独立同分布的测试集的错误率——在对抗扰动的训练集样本上训练网络。
对抗样本的研究开始主要集中在图片分类问题上,随着对抗样本研究的逐渐加深,人们提出了各种各样的对抗样本生成方法,这其中包括针对视频分类来生成对抗样本的方法。然而,现有技术中针对视频分类模型所生成的对抗样本仍存在对抗效果较差的问题。
发明内容
为此,非常需要一种改进的生成对抗样本的方法,以使用稀疏的对抗噪声来对抗现有的视频分类算法,提高对抗效果。
在本上下文中,本发明的实施方式期望提供一种视频信息处理方法及装置、存储介质及计算设备。
根据本发明的一个方面,提供了一种视频信息处理方法,包括:获得训练数据集,所述训练数据集包括多个训练视频,其中每个训练视频具有对应的真实类别标签;获得待处理的视频分类模型;构建以对抗噪声为未知量的目标函数,以满足如下条件:令训练视频中尽量少的视频帧上加有所述对抗噪声,并令所述对抗噪声的幅度尽量小,以及令所述待处理的视频分类模型对添加对抗噪声后的训练视频分类的结果尽量错;基于所述训练数据集,求解所述目标函数,以获得对抗噪声;以及确定待处理的原始视频,利用获得的对抗噪声生成与所述原始视频对应的对抗视频样本。
进一步地,所述获得待处理的视频分类模型的步骤包括:获得所述待处理的视频分类模型的模型网络架构以及对应的模型参数。
进一步地,所述待处理的视频分类模型包括基于卷积神经网络(CNN)和循环神经网络(RNN)而构建的视频分类模型。
进一步地,所述目标函数包括基于视频序列蒙版与对抗噪声的点乘乘积的范数所构建的第一表达项。
进一步地,对于所述训练数据集的每个训练视频,在该训练视频的所有视频帧中选定至少一个视频帧作为候选帧,其中,该训练视频对应的视频序列蒙版中与该训练视频的候选帧对应处的元素值为1,其余为0。
进一步地,对于所述训练数据集的每个训练视频,根据预设的稀疏度来确定在该训练视频的所有视频帧中要选定的视频帧数目。
进一步地,对于所述训练数据集的每个训练视频,在该训练视频的所有视频帧中要选定的视频帧数目等于以下值:该训练视频的所有视频帧数目与所述稀疏度之积。
进一步地,所述目标函数包括基于所述待处理的视频分类模型的损失函数所构建的第二表达项,其中,所述损失函数用于度量添加对抗噪声的训练视频的预测类别标签与对应的真实类别标签之间的距离。
进一步地,所述损失函数包括交叉墒损失函数。
进一步地,采用Adam优化方法求解所述目标函数。
进一步地,在求解所述目标函数的过程中,令所有的对抗噪声初始化为预设值,所述预设值介于0与0.1之间。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学,未经清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910075369.1/2.html,转载请声明来源钻瓜专利网。