[发明专利]一种多任务增强场景文本识别方法及系统在审
申请号: | 202210339990.6 | 申请日: | 2022-04-01 |
公开(公告)号: | CN114821559A | 公开(公告)日: | 2022-07-29 |
发明(设计)人: | 齐飞;李景泉;邓亚鹏;石光明 | 申请(专利权)人: | 西安电子科技大学 |
主分类号: | G06V20/62 | 分类号: | G06V20/62;G06V30/146;G06V30/19;G06N3/04;G06N3/08 |
代理公司: | 北京众达德权知识产权代理有限公司 11570 | 代理人: | 吴莹 |
地址: | 710071*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 任务 增强 场景 文本 识别 方法 系统 | ||
本发明提供了一种多任务增强场景文本识别方法及系统,通过将第一场景原始信息输入矫正网络模块,生成第一矫正结果信息输入特征生成模块,获得第一文本特征信息;输入上下文建模模块、分支任务模块,获得第一上下文建模结果、第二文本识别结果;将第一上下文建模结果输入预测模块,获得第一文本识别结果;根据第一文本识别结果和第二文本识别结果训练多任务增强场景文本识别模型;将第二场景原始信息输入获得第一多任务文本识别结果。解决了现有技术中文字检测识别在保持速度和规模不变条件下,识别率难以提升,而影响文字识别精准度的技术问题。达到利用多任务多模型统一架构稳定提升模型性能,推理阶段没有任何规模和速度损失的技术效果。
技术领域
本发明涉及文本识别技术领域,具体涉及一种多任务增强场景文本识别方法及系统。
背景技术
随着工业、服务业等智能化趋势发展,自然场景下的文字检测识别技术被广泛的应用于社会各个行业,如金融、教育、医疗等领域。包括文档录入、发票识别、车牌识别、证件识别等文字检测识别的具体应用,用以提高各行各业的工作效率、简化用户的操作流程。虽然一些高性能的文字检测识别方法在通用场景下的识别率已经达到90%以上,但这些方法受限于实际中对算法速度和规模的要求难以落地。目前已经广泛落地的算法,如CRNN、RARE、Rosetta等虽然满足了算法速度和规模的要求,但要在保持速度和规模不变的前提下提升模型识别率仍比较困难。
现有技术中至少存在以下技术问题:
现有技术中文字检测识别在保持速度和规模不变条件下,识别率难以提升,而影响文字识别精准度的技术问题。
发明内容
本申请提供了一种多任务增强场景文本识别方法及系统,用于针对解决现有技术中文字检测识别在保持速度和规模不变条件下,识别率难以提升,而影响文字识别精准度的技术问题。达到了利用多任务多模型统一架构,能够适配大部分场景文本识别要求,并提出分支长度预测任务和字符统计任务,能够在框架下稳定提升模型性能,在推理阶段没有任何规模和速度损失的技术效果。
鉴于上述问题,本申请提供了一种多任务增强场景文本识别方法及系统。
本申请的第一个方面,提供了一种多任务增强场景文本识别方法,所述方法应用一种多任务增强场景文本识别模型,所述模型包括矫正网络模块、特征生成模块、上下文建模模块、预测模块和分支任务模块,所述方法包括:将第一场景原始信息输入矫正网络模块,生成第一矫正结果信息;将所述第一矫正结果信息输入特征生成模块,获得第一文本特征信息;将所述第一文本特征信息输入上下文建模模块,获得第一上下文建模结果;将所述第一上下文建模结果输入预测模块,获得第一文本识别结果;将所述第一文本特征信息输入分支任务模块,生成第二文本识别结果;根据所述第一文本识别结果和所述第二文本识别结果训练多任务增强场景文本识别模型;将第二场景原始信息输入所述多任务增强场景文本识别模型,获得第一多任务文本识别结果。
本申请的第二个方面,提供了一种多任务增强场景文本识别系统,所述系统包括:
第一执行单元,所述第一执行单元用于将第一场景原始信息输入矫正网络模块,生成第一矫正结果信息;
第一获得单元,所述第一获得单元用于将所述第一矫正结果信息输入特征生成模块,获得第一文本特征信息;
第二获得单元,所述第二获得单元用于将所述第一文本特征信息输入上下文建模模块,获得第一上下文建模结果;
第三获得单元,所述第三获得单元用于将所述第一上下文建模结果输入预测模块,获得第一文本识别结果;
第二执行单元,所述第二执行单元用于将所述第一文本特征信息输入分支任务模块,生成第二文本识别结果;
第三执行单元,所述第三执行单元用于根据所述第一文本识别结果和所述第二文本识别结果训练多任务增强场景文本识别模型;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210339990.6/2.html,转载请声明来源钻瓜专利网。