[发明专利]一种基于深度学习Transformer模型的梯形堆积核脉冲识别方法有效
| 申请号: | 202210394146.3 | 申请日: | 2022-04-15 |
| 公开(公告)号: | CN114897004B | 公开(公告)日: | 2023-05-02 |
| 发明(设计)人: | 马兴科;黄洪全;黄博睿;王清泰;沈志文;辛昊;肖钰于;丁卫撑;徐慧平 | 申请(专利权)人: | 成都理工大学;东北大学秦皇岛分校 |
| 主分类号: | G06F18/241 | 分类号: | G06F18/241;G06N3/04;G06N3/084;G06F18/214;G06N3/044 |
| 代理公司: | 暂无信息 | 代理人: | 暂无信息 |
| 地址: | 610059 四川*** | 国省代码: | 四川;51 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 深度 学习 transformer 模型 梯形 堆积 脉冲 识别 方法 | ||
1.一种基于深度学习Transformer模型的梯形堆积核脉冲识别方法,对梯形成形后的梯形堆积核脉冲进行识别是通过以下方法实现的:
①梯形堆积核脉冲Vo(mTs)看成是由N个上升沿变缓的阶跃核脉冲叠加后经过梯形成形后得到的,按如下方法实现:
N个上升沿变缓的阶跃核脉冲的叠加信号Ve(kTs)表示为:
将Ve(kTs)作为如下梯形成形算法的输入信号而实现输出信号Vo(mTs):
公式(1)和(2)中,u(kTs-Ti)表示阶跃函数;k=1,2,3,…,K;K为Ve(kTs)的离散点数;τ为上升沿变缓的阶跃脉冲的衰减时间常数;Ts为采样周期;Ai和Ti分别表示第i个上升沿变缓的阶跃核脉冲的幅值及发生时间;p为梯形脉冲与阶跃脉冲的幅值比例系数p=Vo(mTs)/Ve(mTs);na=ta/Ts,nb=(ta+D)/Ts,nc=tc/Ts,ta为梯形脉冲的上升沿时间,D为梯形脉冲的平顶宽度时间,整个梯形成形时间tc=2ta+D;m=1,2,3,…,K+2+nc;
②制作含有n个样本的数据集,数据集的矩阵表示形式如下:
表达式(3)中每一行代表一个样本的数据;每个样本的前K+2+nc个数据为该样本对应的梯形堆积核脉冲的采样值,设该梯形堆积核脉冲按步骤①的成形方法进行成形前的输入信号Ve(kTs)的参数为Ai(i=1,2,…,N)、Ti(i=1,2,…,N)和τ,并设梯形成形时的上升沿时间为ta,平顶宽度时间为D,则将这些参数构成为该样本的参数集合θ,即θ=[A1,A2,...,AN,T1,T2,...,TN,τ,ta,D];第i个样本对应的梯形堆积核脉冲Vo(mTs)的采样值为[Vo(Ts)]i,[Vo(2Ts)]i,[Vo(3Ts)]i,…,[Vo((K+2+nc)Ts)]i;第i个样本的参数集合则变为θi,参数集合θ随机产生,并将数据集按照一定比例划分为训练集(TrainSet)、测试集(TestSet)、验证集(ValidationSet);
③将训练集用于Transformer模型的训练;在训练Transformer时的前向传播过程中,训练集中的各个样本对应的梯形堆积核脉冲Vo(mTs)与位置编码叠加后作为Transformer模型的输入数据;整个Transformer模型按如下A、B、C、D环节实现:
A、注意力模型SA的计算
对于添加完位置编码的脉冲序列向量Vp(mTs),采用三个权值矩阵WQ,WK,WV,分别将Vp(mTS)转化为MHA模型所需的搜索向量Q(Query),关键词向量K(Keys),价值向量V(Values);对于有H个注意力模型(SA)组成的MHA模型,其第h(h=1,2...H)个注意力模型所对应的K、Q、V向量的子向量即为Kh,Qh,Vh,因此,SA的数学模型为:
Kh=Vp(mTs)WK (4)
Qh=Vp(mTs)WQ (5)
Vh=Vp(mTs)WV (6)
其中,dk为K向量的维度;因此,对于有H个注意力机制的MHA,理解为其由H个SA模型拼接后经过线性变换而成,其数学模型为:
MHA(K,Q,V)=Concat[SA(Kh,Qh,Vh)]Wo (8)
其中h=1,2...H,为变换矩阵;
B、残差模型的计算
引入残差神经网络ResNet来解决网络退化的问题,其数学模型为:
ResNet(K,Q,V)=relu[MHA(K,Q,V)]+MHA(K,Q,V) (9)
C、全连接前馈神经网络模型的计算
对于B环节中归一化处理过后的脉冲序列数据,将其输入进全连接神经网络FCFFN(Fully Connected Feed-Forward Network),其数学模型为:
FCFFN(K,Q,V)=max[0,ResNet(K,Q,V)W1+b1]W2+b2 (10)
其中W1,W2,b1,b2为神经网络的权重与偏置;
D、Decoder中掩码多头注意力模型的计算
核脉冲序列数据在经过多个Encoder模型后传入Decoder模型中,Decoder相较于Encoder的MHA模型,Decoder采用掩码多头注意力模型MMHA(MaskedMulti-HeadAttention),使用和QKT同样维度的矩阵M作为mask矩阵,即:
接着在SA模型中用QKT点乘M;MMHA模型表示为:
MMHA(K,Q,V)=Concat[MSA(Kh,Qh,Vh)]Wo(12)
其中:
接着,将输出注意力模型的数据经过环节B、C后前向传播结束;
④梯形堆积核脉冲反向传播训练:对于有q个样本的训练集,在每次前向传播完成后输出的预测脉冲参数集合θi'与输入Transformer模型训练的实际脉冲参数集合θi的交叉熵(CE)值作为损失函数的函数值LossCE,即损失函数的计算式为:
为了让损失值下降到一定程度后,再逐渐恢复模型的学习率,采用带有预热机制的可变学习率,该学习率LR的数学模型为:
其中dm为位置向量的维度,Sn为训练的步数,Ws为预热参数,且设置该预热参数值为4000;
将LossCE与损失函数的梯度一起反馈给网络来更新权重,实现减少后续迭代中误差的目的;
⑤当一个具有识别脉冲参数集合θ能力的Transformer模型训练完成后,将训练完成的模型结构、权重、训练配置及优化器参数保存为HDF5(HierarchicalDataFormat5,HDF5)文件;然后将步骤①中欲进行参数识别的原始梯形堆积核脉冲的采样值作为Transformer模型的输入,进而由Transformer模型的输出得到所需提取的脉冲参数集合θ;
通过以上步骤①~⑤完成梯形堆积核脉冲的识别。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于成都理工大学;东北大学秦皇岛分校,未经成都理工大学;东北大学秦皇岛分校许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210394146.3/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种祛湿化痰法治疗冠心病的中药组合物及其应用
- 下一篇:一种起泡器
- 基于Transformer+LSTM神经网络模型的商品销量预测方法及装置
- 一种基于Transformer模型自然场景文字识别方法
- 一种深度Transformer级联神经网络模型压缩算法
- 点云分割方法、系统、介质、计算机设备、终端及应用
- 基于Transformer的中文智能对话方法
- 一种基于改进Transformer模型的飞行器故障诊断方法和系统
- 一种基于Transformer模型的机器翻译模型优化方法
- 基于Transformer和增强交互型MPNN神经网络的小分子表示学习方法
- 基于U-Transformer多层次特征重构的异常检测方法及系统
- 基于EfficientDet和Transformer的航空图像中的飞机检测方法





