[发明专利]一种基于耦合空间学习的场景文字识别方法有效
申请号: | 201710014236.4 | 申请日: | 2017-01-10 |
公开(公告)号: | CN106709494B | 公开(公告)日: | 2019-12-24 |
发明(设计)人: | 张重;王红;刘爽 | 申请(专利权)人: | 天津师范大学 |
主分类号: | G06K9/32 | 分类号: | G06K9/32;G06K9/62 |
代理公司: | 11489 北京中政联科专利代理事务所(普通合伙) | 代理人: | 陈超 |
地址: | 300387 *** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明实施例公开了一种基于耦合空间学习的场景文字识别方法,该方法包括以下步骤:输入场景文字图像进行预处理,得到训练场景文字图像;对训练场景文字图像进行识别特征提取,得到空间词典;利用空间词典对对应图像的识别特征进行空间编码,得到相应的空间编码向量;对空间编码向量进行最大化抽取得到特征向量;基于特征向量利用线性支持向量机训练得到场景文字识别分类模型;获取测试场景文字图像的特征向量,输入场景文字识别分类模型得到场景文字识别结果。本发明通过创建空间词典和利用空间词典进行空间编码,能够将空间上下文信息有效的结合在特征向量中,达到有效挖掘空间信息的目的,从而提高场景文字识别的正确率。 | ||
搜索关键词: | 一种 基于 耦合 空间 学习 场景 文字 识别 方法 | ||
【主权项】:
1.一种基于耦合空间学习的场景文字识别方法,其特征在于,该方法包括以下步骤:/n步骤S1,对N幅输入场景文字图像分别进行预处理操作,得到N幅训练场景文字图像;/n步骤S2,对于N幅训练场景文字图像分别进行识别特征提取,得到N个空间词典;/n步骤S3,利用每幅训练场景文字图像的空间词典对该图像的识别特征进行空间编码,得到相应的空间编码向量;/n步骤S4,对于每幅训练场景文字图像的空间编码向量进行最大化抽取,得到所述训练场景文字图像对应的特征向量;/n步骤S5,基于所述训练场景文字图像的特征向量,利用线性支持向量机进行训练,得到场景文字识别分类模型;/n步骤S6,按照所述步骤S1-S4获取测试场景文字图像的特征向量,输入至所述场景文字识别分类模型得到场景文字识别结果;/n所述步骤S3中,通过下式所示的目标函数对训练场景文字图像的识别特征进行空间编码:/n
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津师范大学,未经天津师范大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201710014236.4/,转载请声明来源钻瓜专利网。
- 上一篇:一种双动态视频车牌定位方法和装置
- 下一篇:一种图像区域居中的方法和装置