[发明专利]基于全卷积神经网络的候选文本框生成和文本检测方法有效
| 申请号: | 201611070587.9 | 申请日: | 2016-11-29 |
| 公开(公告)号: | CN106650725B | 公开(公告)日: | 2020-06-26 |
| 发明(设计)人: | 马景法;金连文;钟卓耀 | 申请(专利权)人: | 华南理工大学 |
| 主分类号: | G06K9/32 | 分类号: | G06K9/32;G06N3/04;G06N3/08 |
| 代理公司: | 广东广信君达律师事务所 44329 | 代理人: | 杨晓松 |
| 地址: | 510640 广东省广*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 卷积 神经网络 候选 文本框 生成 文本 检测 方法 | ||
1.基于全卷积神经网络的候选文本框生成和文本检测方法,其特征在于,包括步骤
S1:生成文本区域候选框,inception-RPN以自然场景图片和一套标记文本区域的真实边界框作为输入,产生可控数量的单词区域候选框,在VGG16模型的卷积特征响应图上滑动一个inception网络,并在每个滑动位置辅助一套文本特征先验框;
S2:并入容易引起歧义的文本类别监督信息,融入多层次的区域下采样信息,进行文本检测;
S3:通过反向传播和随机梯度下降,以一种端到端的方式训练inception候选框生成网络和文本检测网络;
S4:候选框迭代投票以一种补充的方式获得更高的文本召回率,使用候选框过滤算法,移除过剩的检测框;
训练过程中使多任务的损失函数最小,公式如下:
分类层的损失函数Lcls是softmax损失函数,p和p*分别是预测的标签和真实的标签;回归损失函数Lreg应用smooth-L1损失函数;另外,t={tx,ty,tw,th}和分别相应的代表预测和真实候选框的回归偏差值向量,t*由如下公式所得:
其中,P={Px,Py,Pw,Ph}和G={Gx,Gy,Gw,Gh}分别代表相应候选框P和真实文本框G的中心坐标、高度和宽度,λ代表损失平衡参数。
2.如权利要求1所述的基于全卷积神经网络的候选文本框生成和文本检测方法,其特征在于,步骤S1包括步骤
S11:文本特征先验框设计;
S12:构建inception候选框生成网络。
3.如权利要求2所述的基于全卷积神经网络的候选文本框生成和文本检测方法,其特征在于,步骤S11中文本特征先验框共24种,其中每个滑动位置滑动窗口宽度设为32,48,64和80,长宽比例为0.2,0.5,0.8,1.0,1.2和1.5。
4.如权利要求2所述的基于全卷积神经网络的候选文本框生成和文本检测方法,其特征在于,步骤S12中inception候选框生成网络由一个3*3的卷积层,5*5的卷积层和3*3的最大池化层连接到一个作为输入的Conv5_3的特征响应图的相应的空间接受域上。
5.如权利要求1所述的基于全卷积神经网络的候选文本框生成和文本检测方法,其特征在于,步骤S2中文本类别监督信息为:候选框IoU重叠大于等于0.5的指定为存在文本,把候选框IoU重叠大于等于0.2小于0.5的指定为“模糊文本”,其他指定为不包含文本信息。
6.如权利要求1所述的基于全卷积神经网络的候选文本框生成和文本检测方法,其特征在于,步骤S2中多层次的区域下采样信息为:在VGG16网络的Conv4_3和Conv5_3的卷积特征响应图都执行多层次的区域下采样,并得到两个512*H*W的采样特征,然后以一个512*1*1的卷积层解码连接在一起的特征。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学,未经华南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201611070587.9/1.html,转载请声明来源钻瓜专利网。
- 上一篇:建立交通标志数据库的方法和装置
- 下一篇:一种车牌识别方法





