[发明专利]一种基于混合神经网络模型的视频去色方法有效
申请号: | 201910091019.4 | 申请日: | 2019-01-30 |
公开(公告)号: | CN109871790B | 公开(公告)日: | 2022-12-16 |
发明(设计)人: | 刘世光;张晓丽 | 申请(专利权)人: | 天津大学 |
主分类号: | G06V20/40 | 分类号: | G06V20/40;G06V10/44;G06V10/82;G06N3/04;G06N3/08;G06T7/90 |
代理公司: | 天津市北洋有限责任专利代理事务所 12201 | 代理人: | 潘俊达 |
地址: | 300072*** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明属于视频处理的技术领域,具体涉及一种基于混合神经网络模型的视频去色方法,包括如下步骤:步骤一,输入彩色视频,并按照预定帧率将视频分割成若干视频帧,编码器利用卷积学习视频帧中图像的局部内容,然后提取局部语义特征;步骤二,提取视频帧之间的时序特征,并将时序特征通过融合器融合到局部语义特征;步骤三,利用基于反卷积的解码器对融合的时序特征进行解码,输出灰度化视频。本发明基于CNN和LSTM混合神经网络,能够保持视频帧对比度和连续视频帧间时序一致性,提高灰度化视频的质量,同时,解决了传统视频去色过程中的闪烁问题。 | ||
搜索关键词: | 一种 基于 混合 神经网络 模型 视频 方法 | ||
【主权项】:
1.一种基于混合神经网络模型的视频去色方法,其特征在于,包括如下步骤:步骤一,输入彩色视频,并按照预定帧率将视频分割成若干视频帧,编码器利用卷积学习所述视频帧中图像的局部内容,然后提取局部语义特征;步骤二,提取所述视频帧之间的时序特征,并将时序特征通过融合器融合到所述局部语义特征;步骤三,利用基于反卷积的解码器对融合的所述时序特征进行解码,输出灰度化视频。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津大学,未经天津大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910091019.4/,转载请声明来源钻瓜专利网。
- 上一篇:一种基于轻量化神经网络的复杂环境下车辆检测方法
- 下一篇:图像处理方法和装置