[发明专利]文本图片解析方法、装置、计算机设备及存储介质在审
| 申请号: | 202010173437.0 | 申请日: | 2020-03-13 |
| 公开(公告)号: | CN111382740A | 公开(公告)日: | 2020-07-07 |
| 发明(设计)人: | 郑泽重;范有文;潭江龙 | 申请(专利权)人: | 深圳前海环融联易信息科技服务有限公司 |
| 主分类号: | G06K9/32 | 分类号: | G06K9/32;G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 深圳市精英专利事务所 44242 | 代理人: | 巫苑明 |
| 地址: | 518000 广东省深圳市前海深港合作区前*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 文本 图片 解析 方法 装置 计算机 设备 存储 介质 | ||
1.文本图片解析方法,其特征在于,包括:
获取需要解析的图片数据,以得到待解析图片;
将待解析图片输入至文本方向识别模型内进行文本方向识别,以得到识别结果;
利用识别结果对待解析图片进行预处理,以得到中间图片;
将中间图片输入至文本区域定位模型内进行文本区域定位,以得到定位结果;
根据所述定位结果对中间图片进行再次处理,以得到文本区域图片;
对文本区域图片进行线段检测,以得到关键信息;
根据所述关键信息截取所述文本区域图片,以得到关键文本图片;
对关键文本图片进行解析,以形成解析结果;
发送所述解析结果至终端,以使得终端显示所述解析结果;
其中,所述文本方向识别模型是通过带有文本方向标签的文本图片作为样本集进行训练所得的;
所述文本区域定位模型是通过带有文本区域标签且文字朝上的文本图片作为样本集进行训练所得的。
2.根据权利要求1所述的文本图片解析方法,其特征在于,所述文本方向识别模型是通过带有文本方向标签的文本图片作为样本集进行训练所得的,包括:
获取带有文本方向标签的文本图片,以得到第一样本集,将第一样本集划分为第一训练集以及第一测试集;
构建第一卷积神经网络以及第一损失函数;
将第一训练集输入至第一卷积神经网络中进行卷积训练,以得到第一训练结果;
利用第一损失函数计算第一训练结果与文本方向标签的损失值,以得到第一损失值;
判断所述第一损失值是否维持不变;
若所述第一损失值不是维持不变,则调整所述第一卷积神经网络的参数,并执行所述将第一训练集输入至第一卷积神经网络中进行卷积训练,以得到第一训练结果;
若所述第一损失值维持不变,则将第一测试集输入至第一卷积神经网络内进行卷积测试,以得到第一测试结果;
判断所述第一测试结果是否符合条件;
若所述第一测试结果符合条件,则将所述第一卷积神经网络作为文本方向识别模型;
若所述第一测试结果不符合条件,则执行所述调整所述第一卷积神经网络的参数。
3.根据权利要求1所述的文本图片解析方法,其特征在于,所述文本区域定位模型是通过带有文本区域标签且文字朝上的文本图片作为样本集进行训练所得的,包括:
获取带有文本区域标签且文字朝上的文本图片,以得到第二样本集,将第二样本集划分为第二训练集以及第二测试集;
构建第二卷积神经网络以及第二损失函数;
将第二训练集输入至第二卷积神经网络中进行卷积训练,以得到第二训练结果;
利用第二损失函数计算第二训练结果与文本区域标签的损失值,以得到第二损失值;
判断所述第二损失值是否维持不变;
若所述第二损失值不是维持不变,则调整所述第二卷积神经网络的参数,并执行所述将第二训练集输入至第二卷积神经网络中进行卷积训练,以得到第二训练结果;
若所述第二损失值维持不变,则将第二测试集输入至第二卷积神经网络内进行卷积测试,以得到第二测试结果;
判断所述第二测试结果是否符合条件;
若所述第二测试结果符合条件,则将所述第二卷积神经网络作为文本区域定位模型;
若所述第二测试结果不符合条件,则执行所述调整所述第二卷积神经网络的参数。
4.根据权利要求1所述的文本图片解析方法,其特征在于,所述对文本区域图片进行线段检测,以得到关键信息,包括:
根据霍尔曼变换原理检测所述文本区域图片内的线段,以得到线段信息;
根据所述线段信息进行线段过滤以及合并,以得到关键信息。
5.根据权利要求1所述的文本图片解析方法,其特征在于,所述根据所述关键信息截取所述文本区域图片,以得到关键文本图片,包括:
根据所述关键信息截取所述文本区域图片的对应位置,以得到候选关键图片;
对候选关键图片进行拼接,以得到关键文本图片。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳前海环融联易信息科技服务有限公司,未经深圳前海环融联易信息科技服务有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010173437.0/1.html,转载请声明来源钻瓜专利网。





