[发明专利]一种基于3D卷积神经网络的视频显著性检测方法有效
申请号: | 201811132912.9 | 申请日: | 2018-09-27 |
公开(公告)号: | CN109376611B | 公开(公告)日: | 2022-05-20 |
发明(设计)人: | 方玉明;丁冠群;杜人钢 | 申请(专利权)人: | 方玉明 |
主分类号: | G06V20/40 | 分类号: | G06V20/40;G06V10/82;G06N3/04;G06N3/08 |
代理公司: | 北京科亿知识产权代理事务所(普通合伙) 11350 | 代理人: | 汤东凤 |
地址: | 330013 江西省南昌*** | 国省代码: | 江西;36 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 卷积 神经网络 视频 显著 检测 方法 | ||
1.一种对于视频图像的显著性检测方法,其特征在于,包括以下步骤:
A.首先利用2D卷积建立一个2D深度卷积神经网络,输入一帧视频帧获得运动目标语义特征;
B.其次利用3D卷积建立一个3D深度卷积神经网络,输入连续三帧视频帧得到帧与帧之间的时空显著性信息,代表当前帧的时空显著性特征;
C.最后根据所得到的运动目标语义特征和时空显著性特征,采用3D卷积层连接得到混合特征映射图,之后将混合特征映射图输入到3D反卷积网络中以学习和混合运动目标语义特征和时空显著性特征,最终的显著图通过3D反卷积网络得到;
其中,所述步骤A中的2D深度卷积神经网络记为Conv2DNet,它包括13层2D卷积层用于提取运动目标语义特征,5层最大池化层用于对特征图进行下采样;Conv2DNet通过去掉VGG16模型的后面3层全连接层搭建而成,VGG16模型首先在训练集中随机选取一个训练样本,记为训练样本T(It-1,It,It+1,Gt),其中包含连续三帧视频帧图像(It-1,It,It+1)和对应的目标帧参考显著图Gt,然后将当前帧图像It输入到Conv2DNet中,经过卷积神经网络前向传播得到1024维特征映射图,其映射图行和列大小为7×7,代表运动目标语义特征;假设第l层为卷积层,第l+1层为最大池化层,则第l层第j个特征映射和激活函数Relu的计算公式如下:
其中⊙表示卷积核k在第l-1层所有关联的特征映射上做卷积运算再加上一个偏置参数b,然后求和,经过激活函数Relu得到最终激励值;
所述步骤C中的3D反卷积网络记为Deconv3DNet,它包含5层非池化层用于恢复最大池化层下采样后的最大值位置,12层3D反卷积层用于学习和混合运动目标语义特征和时空显著性特征,还有一层3D卷积层用于生成最后的显著性图,将所获得的运动目标语义特征和时空显著性特征连接获得2048维特征映射图,其映射图行和列大小为7×7,将其输入到Deconv3DNet中,经过卷积神经网络前向传播获得最后的显著图St,其显著图行和列大小为224×224;假设第l层为反卷积层,第l-1层为非池化层,则第l层第j个特征映射的计算公式如下:
其中⊙表示反卷积核在第l-1层所有关联的特征映射上做反卷积运算再加上一个偏置参数b,然后求和,经过激活函数Relu得到最终激励值。
2.根据权利要求1所述的一种对于视频图像的显著性检测方法,其特征在于,所述步骤B中的3D深度卷积神经网络记为Conv3DNet,它包含14层3D卷积层用于提取时空显著性特征,5层最大池化层用于对特征映射图下采样,同时记录采样最大值的位置;将训练样本T所包含的连续三帧视频帧(It-1,It,It+1)输入到Conv3DNet中,经过卷积神经网络前向传播获得1024维特征映射图,其大小为7×7,代表时空显著性特征。
3.根据权利要求1所述的一种对于视频图像的显著性检测方法,其特征在于,将所述步骤C中获得的最终显著图St与训练样本T目标视频帧所对应的参考显著图Gt相减,从而获得前向传播的误差,再经过反向传播进行权重调优。
4.根据权利要求3所述的一种对于视频图像的显著性检测方法,其特征在于,所采用的计算前向传播误差的损失函数方法为均方误差,计算公式为:
其中St(i,j)为生成的最终显著图St中的像素值,其显著图行和列大小为h×w,所有最终显著图设置为224×224;Gt(i,j)为目标视频帧所对应的参考显著图Gt中的像素值,其显著图行和列大小为h×w,所有显著图设置为224×224;k表示每次传入神经网络的批次大小,其中损失函数L所获得的是St和Gt对应像素相减,并取其均值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于方玉明,未经方玉明许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811132912.9/1.html,转载请声明来源钻瓜专利网。