[发明专利]一种基于神经网络的文字识别方法在审
申请号: | 202010222642.1 | 申请日: | 2020-03-26 |
公开(公告)号: | CN111428715A | 公开(公告)日: | 2020-07-17 |
发明(设计)人: | 陈豪奋 | 申请(专利权)人: | 广州市南方人力资源评价中心有限公司 |
主分类号: | G06K9/32 | 分类号: | G06K9/32;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 510000 广东省广州市番禺区*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 神经网络 文字 识别 方法 | ||
本发明涉及文字识别技术技术领域,具体涉及一种基于神经网络的文字识别方法,采用如下步骤:S1:采用待识别文本图像,且转换为灰度图像,形成训练样本图片;S2:对S1中的训练样本图片,输入至cnn卷积神经网络,通过对卷积层的输出通道、卷积核和步长的参数设定,以及层归一化处理,然后提取特征,输出特征矩阵;S3:基于lstm神经网络的cell组成的双向rnn的语言模型;S4:将S2中的得到的特征矩阵,输入至S3中的双向rnn的语言模型中;它基于cnn和rnn的文字识别算法,通过改进cnn和rnn层,其特征提取更加达到点子上,不会出现特征丢失和特征消失的问题,提高识别效率和正确率。
【技术领域】
本发明涉及文字识别技术技术领域,具体涉及一种基于神经网络的文字识别方法。
【背景技术】
现在的文字识别算法中,有多种文字识别算法,如:densnet+ctc,crnn+ctc,resnet+ct等等,在多种算法中,他们的损失函数都是统一为ctc,在提取特征层不一样,如densnet和resnet属于卷积类的提取,crnn是cnn和rnn的结合,属于卷积核语言模型的组合,目前市面上的文字识别算法如图1、图2所示。出现了识别错误的现场,并且这种错误是在训练10G的大样本下的错误。
在现有的文字识别算法中,大部分的特征提取层是由densnet和resnet组成,如果复杂一点的会由cnn和rnn组成,这种组成对印刷体的识别效果会非常不错,但对于手写体来说,densnet和resnet密集型网络提取特征,并且手写体属于松散并且无规律的结构,用这两种方法提取特征会更加容易丢失特征,从而让文字识别出现错误,cnn和rnn的组合在市面上的结构也和densnet和resnet一样复杂,也一样容易丢失特征甚至到达特征消失的地步(计算完后无限接近于0)。
【发明内容】
本发明的目的在于针对现有技术的缺陷和不足,提供一种基于神经网络的文字识别方法。
本发明所述的一种基于神经网络的文字识别方法,采用如下步骤:
S1:采用待识别文本图像,且转换为灰度图像,形成训练样本图片;
S2:对S1中的训练样本图片,输入至cnn卷积神经网络,通过对卷积层的输出通道、卷积核和步长的参数设定,以及层归一化处理,然后提取特征,输出特征矩阵;
S3:基于lstm神经网络的cell组成的双向rnn的语言模型;
S4:将S2中的得到的特征矩阵,输入至S3中的双向rnn的语言模型中,通过对多层卷积的输出通道、卷积核和步长的参数设定,进行提取特征,输出特征矩阵,以及多次对训练数据进行归一化处理,激活、以及最大池化处理,得到对S1中训练样本图片中的文字序列的识别结果。
进一步地,S2中的利用cnn卷积神经网络,对S1中的训练样本图片,进行特征提取,采用如下步骤:
S201:对S1中的训练样本图片,进行卷积运算,进行特征提取,形成特征矩阵;上述卷积运算的参数如下:输出:64,卷积核:3,步长:1;上述最大池化的参数如下:卷积核:2,步长:2;
S202:对S201中的特征矩阵;进行卷积运算,进行特征提取;上述卷积运算的参数如下:输出:128,卷积核:3,步长:1;上述最大池化的参数如下:卷积核:2,步长:2;
S203:对S202中的特征矩阵;进行卷积运算,进行特征提取;上述卷积运算的参数如下:输出:256,卷积核:3,步长:1;
S204:对上述训练数据,进行卷积神经网络的归一化操作;
S205:然后再使用卷积神经网络的激活函数,进行激活处理,将激活信息向后传入下一层的神经网络;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广州市南方人力资源评价中心有限公司,未经广州市南方人力资源评价中心有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010222642.1/2.html,转载请声明来源钻瓜专利网。