[发明专利]一种基于改进的双注意力YOLOv7的场景藏文检测方法在审
申请号: | 202310098347.3 | 申请日: | 2023-02-10 |
公开(公告)号: | CN116246282A | 公开(公告)日: | 2023-06-09 |
发明(设计)人: | 才让当知;黄鹤鸣 | 申请(专利权)人: | 青海师范大学 |
主分类号: | G06V30/30 | 分类号: | G06V30/30;G06V30/41;G06N3/048;G06N3/08;G06N3/0464 |
代理公司: | 成都东恒知盛知识产权代理事务所(特殊普通合伙) 51304 | 代理人: | 何健雄 |
地址: | 810016 青*** | 国省代码: | 青海;63 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 改进 注意力 yolov7 场景 藏文 检测 方法 | ||
1.一种基于改进的双注意力YOLOv7的场景藏文检测方法,其特征在于,包括如下步骤:
S1、建立藏文场景文本数据集;
S2、构建改进的双注意力YOLOv7网络模型;
S3、将数据集中的图像数据作为输入,输入到YOLOv7网络模型中进行特征提取;
S4、将提取到的特征输入到不同尺度的检测头用来检测文本框;
S5、检测头输出对应的目标位置和类别。
2.根据权利要求1所述的基于改进的双注意力YOLOv7的场景藏文检测方法,其特征在于:在步骤S1中,所述数据集中包括有小目标、中目标、大目标文本,目标尺寸小于32×32像素的区域规定为小目标,在32×32像素和96×96像素之间的区域为中目标,尺寸大于96×96像素的区域规定为大目标;小目标、中目标、大目标文本的比例为1:2:3。
3.根据权利要求1所述的基于改进的双注意力YOLOv7的场景藏文检测方法,其特征在于:所述改进的双注意力YOLOv7网络模型具体是:在基础YOLOv7的主干网络下采样和颈部上采样之间引入背景抑制模块,用于学习每个通道的重要程度,增强有用特征的同时抑制无用特征;在YOLOv7颈部和检测头之间采用卷积注意力模块提取特征,包括通道和空间双注意力,提高网络对文本区域的注意力。
4.根据权利要求1所述的基于改进的双注意力YOLOv7的场景藏文检测方法,其特征在于:所述YOLOv7网络模型对输入图像提取文本框、置信度和类别概率三类特征信息;
首先,输入图像首先被划分成S×S个相同大小的窗口,在每个窗口预测生成B个候选框,每个候选框预测参数包含四个坐标(x,y,w,h)和置信度信息;
其次,计算每个候选框包含实体对象的类别概率;
最后,每个窗口生成维度为B×5+N的向量,其中,B为候选框生成的个数,5代表四个坐标和置信度信息,最终生成S×S×(B×5+N)的张量,其中N为类别数。
5.根据权利要求1所述的基于改进的双注意力YOLOv7的场景藏文检测方法,其特征在于:在步骤S3中,具体包括如下:
S31、对于颈部输入特征F在每个通道轴上应用最大池化、平均池化,得到两个c×1×1的向量,并送入两层的共享全连接层;将像素相加融合,经过一个激活函数Sigmoid,得到通道注意力特征图MC,公式表达为:
MC(F)=σ(MLP(AugPool(F)+MLP(MaxPool(F)));
其中,σ为Sigmoid函数;
S32、将通道注意力特征MC输入到空间注意力层,在每个空间层上应用最大池化、平均池化,得到两个1×H×W的特征图;按通道拼接,输入到一个标准卷积层,经过激活函数之后得到空间注意力特征MS,公式表达为:
其中,f7×7为滤波器大小。
6.根据权利要求1所述的基于改进的双注意力YOLOv7的场景藏文检测方法,其特征在于:在步骤S4的检测头中,采用α-IOU边界框回归损失函数,通过引入惩罚系数α,保留高质量的候选框,减轻梯度消失,提高文本检测精度;损失函数如下式:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于青海师范大学,未经青海师范大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310098347.3/1.html,转载请声明来源钻瓜专利网。
- 上一篇:二维材料的转移方法
- 下一篇:一种单气缸实现夹具定位销伸缩及翻转运动的结构