[发明专利]基于文本显著性的场景文本检测方法有效
申请号: | 201611137890.6 | 申请日: | 2016-12-12 |
公开(公告)号: | CN106778757B | 公开(公告)日: | 2019-06-04 |
发明(设计)人: | 邬向前;卜巍;唐有宝 | 申请(专利权)人: | 哈尔滨工业大学 |
主分类号: | G06K9/34 | 分类号: | G06K9/34;G06K9/20;G06N3/08 |
代理公司: | 哈尔滨龙科专利代理有限公司 23206 | 代理人: | 高媛 |
地址: | 150000 黑龙*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 文本 显著 场景 检测 方法 | ||
1.一种基于文本显著性的场景文本检测方法,其特征在于所述检测方法步骤如下:
一、初始文本显著性检测
(1)构建初始文本显著性检测CNN模型,所述初始文本显著性检测CNN模型是在VGGNet-16的基础上进行改进得到,只保留VGGNet-16中的前五个模块,并分别为每个模块引入一个侧输出模块用于监督学习,前两个模块使用文本边缘作为监督信号,后三个模块使用文本区域作为监督信号,最后将后三个侧输出模块的输出进行融合并使用文本区域作为监督信号进行学习;
(2)对于给定的图像,使用初始文本显著性检测CNN模型得到其对应的文本显著性图;
(3)采用大津法对显著性图进行二值化后,得到二值图像;
(4)对于二值图像中的每一个连通体,计算其最小外接矩形;
(5)根据每一个最小外接矩形,从原始图像中裁剪得到一个图像块,并将其作为候选文本区域图像,该图像将是文本显著性细化CNN模型的输入;
二、文本显著性细化
(1)构建文本显著性细化CNN模型,所述文本显著性细化CNN模型是在去卷积网络模型的基础上进行改进得到,包含十个模块,前五个模块记为ENblock,和VGGNet模型中的前五个模块一样,后五个模块记为DEblock,作为前五个模块的逆过程,每个DEblock由去卷积层或卷积层组成,每个DEblock模块中最后一个卷积层的输出与对称的ENblock中第一个卷积层的输出沿通道方向进行拼接,并将拼接后的特征图作为下一个DEblock模块的输入,最后一个拼接后特征图则作为一个卷积层的输入;
(2)将候选文本区域图像作为文本显著性细化CNN模型的输入,得到与其对应的文本显著性图;
(3)使用大津法对得到的文本显著性图进行二值化后,得到文本显著性区域,即最终的候选文本区域;
三、文本显著性区域分类
(1)构建文本显著性区域分类CNN模型,所述文本显著性区域分类CNN模型是在VGGNet-16的基础上进行改进得到,只保留VGGNet-16中的前三个模块,在第三个模块后面增加一个全局平均池化层来提取固定长度的特征,最后使用softmax层来对特征进行分类;
(2)对于每一个候选文本区域,从左右两个方向搜索与其相邻的候选文本区域;
(3)假设当前候选文本区域的最小外接矩形的大小为w×h,w和h分别为当前候选文本区域的最小外接矩形的长和宽,其中心点的坐标为(x,y),坐标系的原点在图像的左上角;如果在区域(x-1.5h-0.5w,y-0.5h,x+1.5h+0.5w,y+0.5h)范围内,包含了其他候选文本区域且这些区域的高度h′满足0.5h≤h′≤1.5h,将其与当前候选文本区域进行合并得到扩大的候选文本区域;
(4)对于每一个扩大的候选文本区域,计算其最小外接矩形;
(5)根据每一个最小外接矩形,从原始图像中裁剪得到一个图像块,并将其作为扩大的候选文本区域对应的候选文本区域图像,该图像将是文本显著性区域分类CNN模型的输入;
(6)使用文本显著性区域分类CNN模型过滤掉非文本区域;
(7)根据剩下的文本区域的高度和垂直位置,将其聚类成文本行;
(8)根据同一行中的相邻文本区域之间的距离,将文本行分割成单词区域,即得到最终的文本检测结果。
2.根据权利要求1所述的基于文本显著性的场景文本检测方法,其特征在于所述侧输出模块包含一个卷积层和一个去卷积层。
3.根据权利要求1所述的基于文本显著性的场景文本检测方法,其特征在于所述融合方法是先将三个输出进行拼接,再使用一个卷积层对其进行卷积。
4.根据权利要求2或3所述的基于文本显著性的场景文本检测方法,其特征在于所述卷积层仅包含一个1×1的卷积核。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工业大学,未经哈尔滨工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201611137890.6/1.html,转载请声明来源钻瓜专利网。