[发明专利]基于深度学习的视频场景文本检测方法、系统、设备及介质在审
申请号: | 201910089785.7 | 申请日: | 2019-01-30 |
公开(公告)号: | CN109919025A | 公开(公告)日: | 2019-06-21 |
发明(设计)人: | 黄双萍;伍思航;杨弈才;伍冠中 | 申请(专利权)人: | 华南理工大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 广州市华学知识产权代理有限公司 44245 | 代理人: | 李君 |
地址: | 510640 广*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种基于深度学习的视频场景文本检测方法、系统、设备及介质,所述方法包括:获取静态自然场景文本图像数据;对静态自然场景文本图像数据进行预处理,得到预处理场景文本图像数据;构建基于回归的端到端深度卷积神经网络模型;使用预处理场景文本图像数据对深度卷积神经网络模型进行优化训练;利用训练后的深度卷积神经网络模型进行视频场景文本检测。本发明采用计算机视觉中基于深度学习的检测方法,通过设计高效的基于回归的端到端深度卷积神经网络模型,可以快速并且实时准确地获取视频中的场景文本,能够为后续文字识别等任务提供基础,对视频语义理解、字幕翻译、治安监控安防、无人机飞行、自动驾驶等场景有着重要的应用。 | ||
搜索关键词: | 卷积神经网络 预处理 场景文本 视频场景 文本检测 文本图像数据 图像数据 自然场景 端到端 计算机视觉 无人机飞行 视频语义 文字识别 优化训练 治安监控 自动驾驶 字幕翻译 回归 安防 构建 学习 视频 场景 检测 应用 | ||
【主权项】:
1.一种基于深度学习的视频场景文本检测方法,其特征在于,所述方法包括:获取静态自然场景文本图像数据;对静态自然场景文本图像数据进行预处理,得到预处理场景文本图像数据;构建基于回归的端到端深度卷积神经网络模型;使用预处理场景文本图像数据对深度卷积神经网络模型进行优化训练;利用训练后的深度卷积神经网络模型进行视频场景文本检测。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学,未经华南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910089785.7/,转载请声明来源钻瓜专利网。