[发明专利]一种基于Transformer和融合注意力机制的目标检测方法及系统在审
| 申请号: | 202211475396.6 | 申请日: | 2022-11-23 |
| 公开(公告)号: | CN115908772A | 公开(公告)日: | 2023-04-04 |
| 发明(设计)人: | 赵志刚;张兆虔;耿丽婷;霍吉东;李传涛;王春晓;张俭;李响 | 申请(专利权)人: | 山东省计算中心(国家超级计算济南中心) |
| 主分类号: | G06V10/20 | 分类号: | G06V10/20;G06V10/42;G06V10/44;G06V10/774;G06V10/80;G06V10/82;G06N3/0464;G06N3/048;G06N3/08 |
| 代理公司: | 济南圣达知识产权代理有限公司 37221 | 代理人: | 马海波 |
| 地址: | 250014 山*** | 国省代码: | 山东;37 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 transformer 融合 注意力 机制 目标 检测 方法 系统 | ||
1.一种基于Transformer和融合注意力机制的目标检测方法,其特征在于,包括:
获取待检测图像进行预处理;
将预处理后的待检测图像输入至训练好的目标检测模型中,输出检测结果;
其中,所述目标检测模型包括Swin Transformer模块、、注意力融合模块和检测模块,所述Swin Transformer模块用于提取待检测图像的全局特征,所述注意力融合模块用于局部特征提取,并将全局特征和局部特征采用跨层级联的方式进行融合,所述检测模块用于根据融合后的特征输出检测结果。
2.如权利要求1所述的一种基于Transformer和融合注意力机制的目标检测方法,其特征在于,所述Swin Transformer模块包括依次顺序连接的4个layer层,其中,layer1层包括依次连接的linear embedding层和2个Swin Transformer Block层;layer2层包括依次连接的Patch Merging层和2个Swin Transformer Block层;layer3层包括依次连接的PatchMerging层和6个Swin Transformer Block层;layer4层包括依次连接的Patch Merging层和2个Swin Transformer Block层。
3.如权利要求1所述的一种基于Transformer和融合注意力机制的目标检测方法,其特征在于,所述Swin Transformer Block层包括W-MSA结构以及SW-MSA结构,所述W-MSA结构对特征图进行分割,分割为多个窗口;所述SW-MSA结构对分割的多个窗口进行像素偏移,使多个窗口实现信息交流。
4.如权利要求2所述的一种基于Transformer和融合注意力机制的目标检测方法,其特征在于,1×1的卷积层分别对layer1层的输出特征图、layer2层的输出特征图以及layer4层的输出特征图进行维度变换分别得到第一特征图、第二特征图、第三特征图。
5.如权利要求4所述的一种基于Transformer和融合注意力机制的目标检测方法,其特征在于,分别将layer1层的linear embedding层的输出特征图与第一特征图、layer4层的Patch Merging层的输出特征图和layer4层的输出的第三特征图作为所述注意力融合模块的输入进行特征融合后输出第四特征图和第五特征图。
6.如权利要求5所述的一种基于Transformer和融合注意力机制的目标检测方法,所述注意力融合模块包括最大池化层和平均池化层,将注意力融合模块的两个输入融合相加后分别输入至两个分支最大池化层、平均池化层;将两个分支的输出结果输入至SharedMLP层,所述SharedMLP层将两个分支输出结果的像素点位置元素相加,得到特征融合信息;将所述特征融合信息输入至Global_MLP层进行不同层的融合;
其中,所述Global_MLP层包括三个分支,第一分支包括顺序连接的全局池化层、全连接层、GELU激活函数、全连接层和Sigmoid激活函数;
第二分支将所述第一分支的输出与SharedMLP层的输出点乘进行信息融合,然后与第三分支的的输出融合相加;
第三分支包括依次顺序连接的全局池化层、1×1卷积和BN层、ReLU、1×1卷积和BN层。
7.如权利要求5所述的一种基于Transformer和融合注意力机制的目标检测方法,其特征在于,所述第四特征图、layer2层输出的特征图、第五特征图分别作为预测模块的三个预测分支,所述预测模块采用YOLOX检测器;
或,所述YOLOX检测器的Head层包括是三个相同的分支,其中一个分支包括依次连接的CBL层、并列的CBL层、Concat层和sigmoid;其中一个并列的CBL层后顺序连接卷积层、sigmoid;另外一个并列的CBL层后连接并列的卷积层,其中一个卷积层后连接sigmoid。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于山东省计算中心(国家超级计算济南中心),未经山东省计算中心(国家超级计算济南中心)许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211475396.6/1.html,转载请声明来源钻瓜专利网。
- 基于Transformer+LSTM神经网络模型的商品销量预测方法及装置
- 一种基于Transformer模型自然场景文字识别方法
- 一种深度Transformer级联神经网络模型压缩算法
- 点云分割方法、系统、介质、计算机设备、终端及应用
- 基于Transformer的中文智能对话方法
- 一种基于改进Transformer模型的飞行器故障诊断方法和系统
- 一种基于Transformer模型的机器翻译模型优化方法
- 基于Transformer和增强交互型MPNN神经网络的小分子表示学习方法
- 基于U-Transformer多层次特征重构的异常检测方法及系统
- 基于EfficientDet和Transformer的航空图像中的飞机检测方法





