[发明专利]一种基于卷积神经网络的视频语义场景分割方法在审
申请号: | 201710725996.6 | 申请日: | 2017-08-22 |
公开(公告)号: | CN107590442A | 公开(公告)日: | 2018-01-16 |
发明(设计)人: | 韩守东;黄飘;朱梓榕;陈阳 | 申请(专利权)人: | 华中科技大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 华中科技大学专利中心42201 | 代理人: | 廖盈春,李智 |
地址: | 430074 湖北*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种基于卷积神经网络的视频语义场景分割方法,主要分为两个部分,一部分是在镜头分割的基础上构建卷积神经网络,再利用构造好的卷积神经网络得到视频关键帧的语义特征向量;另一部分是根据语义特征向量,利用前后关键帧的时间连续性,计算两个镜头关键帧之间的语义特征向量的巴氏距离,通过衡量巴氏距离得到镜头关键帧的语义相似度。利用卷积神经网络输出不同语义的概率估计值作为该帧的语义特征向量。考虑到连续时间内场景划分的时序问题,结合两个镜头关键帧的语义特征以及镜头间的时序特征距离,比较镜头相似度,从而得到最后的场景分割结果。本发明方法具有一定的普适性,在训练集足够的情况下,有着较好的场景分割效果。 | ||
搜索关键词: | 一种 基于 卷积 神经网络 视频 语义 场景 分割 方法 | ||
【主权项】:
一种基于卷积神经网络的视频语义场景分割方法,其特征在于,包括:对待分割视频进行镜头分割得到分割后的镜头,取每个镜头的中间帧作为镜头关键帧;取待分割视频中的部分视频帧作为网络训练样本集,取镜头关键帧作为测试样本集,并对网络训练样本集中的图像以及测试样本集中的图像进行缩小;基于缩小后的网络训练样本集以及缩小后的测试样本集对卷积神经网络进行训练,输出每个镜头关键帧的语义特征向量;利用每个镜头关键帧的语义特征向量以及镜头时序特征,计算镜头之间的距离,然后逐一比较镜头之间的距离,将镜头距离小于预设阈值的镜头作为同一镜头簇,最后将每个镜头簇的末尾镜头的最后一帧作为场景边界,由此完成场景分割。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华中科技大学,未经华中科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201710725996.6/,转载请声明来源钻瓜专利网。
- 上一篇:一种机械臂防碰撞装置
- 下一篇:一种不粘菜刀