[发明专利]一种基于多特征融合检测Deepfake视频方法有效
| 申请号: | 202010745800.1 | 申请日: | 2020-07-29 |
| 公开(公告)号: | CN111860414B | 公开(公告)日: | 2023-10-24 |
| 发明(设计)人: | 王杰;杨建权;朱国普;常杰 | 申请(专利权)人: | 中国科学院深圳先进技术研究院 |
| 主分类号: | G06V20/40 | 分类号: | G06V20/40;G06V40/16;G06V10/80;G06V10/764 |
| 代理公司: | 北京市诚辉律师事务所 11430 | 代理人: | 耿慧敏 |
| 地址: | 518055 广东省深圳*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 特征 融合 检测 deepfake 视频 方法 | ||
1.一种基于多特征融合检测Deepfake视频方法,包括以下步骤:
对于待判决视频设定时间段内的多个视频帧M,计算相邻两帧之间的相关度值,并根据所计算的相关度值形成帧间特征向量E;
对于该多个视频帧M,计算表征帧内特征的帧内特征向量Ω;
将所述帧间特征向量E和所述帧内特征向量Ω进行串接,获得融合特征向量[E,Ω],将该融合特征向量输入至预训练的分类器,获得待判决视频是否属于虚假视频的检测结果。
2.根据权利要求1所述的方法,其中,根据以下步骤形成所述帧间特征向量E:
对于M帧中的每一帧,筛选视频中人脸的特征点,将第i个特征点表示为Ai,其坐标为(xi,yi),1≤i≤n,n为特征点数目;
对每一帧,计算特征点两两之间的归一化欧氏距离,特征点Ai和Aj间的归一化欧氏距离定义为:
将特征点两两之间的归一化欧氏距离构建为n*n的矩阵,并仅保留矩阵上三角位置的个元素,展开排列成维的向量X,作为一帧的向量;
计算相邻两帧向量Xk和Xk+1之间的相关度值,获得k-1个相关度值,其中Xk和Xk+1分别表示第k帧和k+1帧的向量,1≤k≤M-1;
将k-1个相关度值排列形成k-1维向量,作为帧间特征向量E。
3.根据权利要求2所述的方法,其中,所述相邻两帧向量Xk和Xk+1之间的相关度采用方差、均方差、协方差、欧氏距离或皮尔逊相关度来表征。
4.根据权利要求2所述的方法,其中,所述相邻两帧向量Xk和Xk+1之间的相关度为皮尔逊相关度,表示为:
其中表示向量Xk中元素的均值,表示向量Xk中元素的标准差,1≤k≤M-1。
5.根据权利要求1所述的方法,其中,所述计算表征帧内特征的帧内特征向量Ω包括:
对M帧进行均匀下采样,得到F帧;
对F帧中的每一帧,提取面部图像并计算残差图像,将提取到的面部图像表示为I,其坐标(u,v)处的像素值为Iu,v,则残差图像D在坐标(u,v)处的值定义为:Du,v=Iu,v-Iu+1,v;
计算每帧残差图像D的局部邻域的中值,表示为median{Du,v,Du+1,v,Du,v+1},进而形成残差中值矩阵V;
对每一帧的矩阵V,进行W*W邻域的线性回归,并将得到的线性回归系数向量ω作为该帧的帧内特征向量;
将所有F帧的帧内特征向量进行串接,得到Ω=[ω1,ω2,...,ωF],作为视频的帧内特征向量。
6.根据权利要求1所述的方法,其中,所述计算表征帧内特征的帧内特征向量Ω包括:
对M帧中的每一帧,提取面部图像并计算残差图像,将提取到的面部图像表示为I,其坐标(u,v)处的像素值为Iu,v,则残差图像D在坐标(u,v)处的值定义为:Du,v=Iu,v-Iu+1,v;
计算每帧残差图像D的局部邻域的中值,表示为median{Du,v,Du+1,v,Du,v+1},进而形成残差中值矩阵V;
对每一帧的矩阵V,进行W*W邻域的线性回归,并将得到的线性回归系数向量ω作为该帧的帧内特征向量;
将所有M帧的帧内特征向量进行串接,得到Ω=[ω1,ω2,...,ωM],作为视频的帧内特征向量。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院深圳先进技术研究院,未经中国科学院深圳先进技术研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010745800.1/1.html,转载请声明来源钻瓜专利网。





