[发明专利]一种基于深度学习和概率图模型的视频描述生成方法有效
申请号: | 201710048375.9 | 申请日: | 2017-01-19 |
公开(公告)号: | CN106845411B | 公开(公告)日: | 2020-06-30 |
发明(设计)人: | 覃征;黄凯;王国龙;徐凯平;叶树雄 | 申请(专利权)人: | 清华大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06F16/738 |
代理公司: | 西安智大知识产权代理事务所 61215 | 代理人: | 段俊涛 |
地址: | 100084 北京市海淀区1*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种基于深度学习和概率图模型的视频描述生成方法。该系统包括:利用现有的图像数据集训练快速区域对象识别卷积神经网络模型;利用现有的视频数据集训练动作识别卷积神经网络模型;对视频进行抽帧处理,并分别使用快速区域对象识别卷积神经网络模型和动作识别卷积神经网络模型识别出视频中的对象和动作,基本确定视频的大致内容;通过使用条件随机场找到最大概率的对象,动作,对象主谓宾三元组,排除视频中的噪声对象,使得最终的描述结果更加精确;将主谓宾三元组输入长短期记忆网络进而输出合适的句子,该句子即为输入视频的描述。将视频转化成描述,可加快了人对视频内容的理解速度,也加快了视频的检索速度。 | ||
搜索关键词: | 一种 基于 深度 学习 概率 模型 视频 描述 生成 方法 | ||
【主权项】:
一种基于深度学习和概率图模型的视频描述生成方法,其特征在于,包括以下步骤:利用现有的图像数据集训练快速区域对象识别卷积神经网络模型;利用现有的视频数据集训练动作识别卷积神经网络模型;对视频进行抽帧处理,并分别使用快速区域对象识别卷积神经网络模型和动作识别卷积神经网络模型识别出视频中的对象和动作;通过使用条件随机场找到最大概率的<对象,动作,对象>主谓宾三元组;将主谓宾三元组输入长短期记忆网络进而输出视频的描述。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学,未经清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201710048375.9/,转载请声明来源钻瓜专利网。
- 上一篇:一种智能化节能LED投光灯
- 下一篇:一种智能感应光控节能灯