[发明专利]一种基于全卷积网络的深度模型的场景文本擦除方法有效
申请号: | 201910056611.0 | 申请日: | 2019-01-22 |
公开(公告)号: | CN109492627B | 公开(公告)日: | 2022-11-08 |
发明(设计)人: | 金连文;张帅涛;刘禹良 | 申请(专利权)人: | 华南理工大学 |
主分类号: | G06V30/40 | 分类号: | G06V30/40;G06V10/82;G06N3/04;G06N3/08 |
代理公司: | 北京东方盛凡知识产权代理有限公司 11562 | 代理人: | 李娜 |
地址: | 510640 广*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明提出一种基于全卷积网络的深度模型的场景文本擦除方法,包括以下步骤:收集并合成对应的文本与非文本图片、构建一个条件生成对抗全卷积隐藏神经网络模型用于完成自然场景文本自动擦除任务,并进行模型训练和测试网络,输入一张自然场景文本图像,利用全卷积隐藏神经网络模型返回预测结果;本发明通过将文本检测以及图片填补的机制隐式的融入到全卷积隐藏神经网络模型的训练当中,在全卷积隐藏神经网络模型训练阶段利用判别器辅助训练生成器,从而保证全卷积隐藏神经网络模型回归的预测值更加接近于真实,在全卷积隐藏神经网络模型的训练过程中利用对抗式生成网络提高网络的擦除效果,从而可以生成高品质的非文本图片预测。 | ||
搜索关键词: | 一种 基于 卷积 网络 深度 模型 场景 文本 擦除 方法 | ||
【主权项】:
1.一种基于全卷积网络的深度模型的场景文本擦除方法,其特征在于,包括以下步骤:步骤一:数据采集,收集并合成对应的文本与非文本图片,并人工标注成对的真实自然场景数据;步骤二:训练网络,首先构建一个条件生成对抗全卷积隐藏神经网络模型用于完成自然场景文本自动擦除任务,然后将成对图片输入到全卷积隐藏神经网络模型,计算相对应的代价函数,再将自然场景文本图片输入到全卷积隐藏神经网络模型中,利用多个重组的回归损失和对抗性损失作为监督信号,以交替训练的优化方式来训练全卷积隐藏神经网络模型直至收敛;步骤三:测试网络,输入一张自然场景文本图像,利用全卷积隐藏神经网络模型返回预测结果。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学,未经华南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910056611.0/,转载请声明来源钻瓜专利网。