[发明专利]一种基于深度学习Transformer模型的梯形堆积核脉冲识别方法有效

专利信息
申请号: 202210394146.3 申请日: 2022-04-15
公开(公告)号: CN114897004B 公开(公告)日: 2023-05-02
发明(设计)人: 马兴科;黄洪全;黄博睿;王清泰;沈志文;辛昊;肖钰于;丁卫撑;徐慧平 申请(专利权)人: 成都理工大学;东北大学秦皇岛分校
主分类号: G06F18/241 分类号: G06F18/241;G06N3/04;G06N3/084;G06F18/214;G06N3/044
代理公司: 暂无信息 代理人: 暂无信息
地址: 610059 四川*** 国省代码: 四川;51
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 深度 学习 transformer 模型 梯形 堆积 脉冲 识别 方法
【权利要求书】:

1.一种基于深度学习Transformer模型的梯形堆积核脉冲识别方法,对梯形成形后的梯形堆积核脉冲进行识别是通过以下方法实现的:

①梯形堆积核脉冲Vo(mTs)看成是由N个上升沿变缓的阶跃核脉冲叠加后经过梯形成形后得到的,按如下方法实现:

N个上升沿变缓的阶跃核脉冲的叠加信号Ve(kTs)表示为:

将Ve(kTs)作为如下梯形成形算法的输入信号而实现输出信号Vo(mTs):

公式(1)和(2)中,u(kTs-Ti)表示阶跃函数;k=1,2,3,…,K;K为Ve(kTs)的离散点数;τ为上升沿变缓的阶跃脉冲的衰减时间常数;Ts为采样周期;Ai和Ti分别表示第i个上升沿变缓的阶跃核脉冲的幅值及发生时间;p为梯形脉冲与阶跃脉冲的幅值比例系数p=Vo(mTs)/Ve(mTs);na=ta/Ts,nb=(ta+D)/Ts,nc=tc/Ts,ta为梯形脉冲的上升沿时间,D为梯形脉冲的平顶宽度时间,整个梯形成形时间tc=2ta+D;m=1,2,3,…,K+2+nc

②制作含有n个样本的数据集,数据集的矩阵表示形式如下:

表达式(3)中每一行代表一个样本的数据;每个样本的前K+2+nc个数据为该样本对应的梯形堆积核脉冲的采样值,设该梯形堆积核脉冲按步骤①的成形方法进行成形前的输入信号Ve(kTs)的参数为Ai(i=1,2,…,N)、Ti(i=1,2,…,N)和τ,并设梯形成形时的上升沿时间为ta,平顶宽度时间为D,则将这些参数构成为该样本的参数集合θ,即θ=[A1,A2,...,AN,T1,T2,...,TN,τ,ta,D];第i个样本对应的梯形堆积核脉冲Vo(mTs)的采样值为[Vo(Ts)]i,[Vo(2Ts)]i,[Vo(3Ts)]i,…,[Vo((K+2+nc)Ts)]i;第i个样本的参数集合则变为θi,参数集合θ随机产生,并将数据集按照一定比例划分为训练集(TrainSet)、测试集(TestSet)、验证集(ValidationSet);

③将训练集用于Transformer模型的训练;在训练Transformer时的前向传播过程中,训练集中的各个样本对应的梯形堆积核脉冲Vo(mTs)与位置编码叠加后作为Transformer模型的输入数据;整个Transformer模型按如下A、B、C、D环节实现:

A、注意力模型SA的计算

对于添加完位置编码的脉冲序列向量Vp(mTs),采用三个权值矩阵WQ,WK,WV,分别将Vp(mTS)转化为MHA模型所需的搜索向量Q(Query),关键词向量K(Keys),价值向量V(Values);对于有H个注意力模型(SA)组成的MHA模型,其第h(h=1,2...H)个注意力模型所对应的K、Q、V向量的子向量即为Kh,Qh,Vh,因此,SA的数学模型为:

Kh=Vp(mTs)WK   (4)

Qh=Vp(mTs)WQ   (5)

Vh=Vp(mTs)WV   (6)

其中,dk为K向量的维度;因此,对于有H个注意力机制的MHA,理解为其由H个SA模型拼接后经过线性变换而成,其数学模型为:

MHA(K,Q,V)=Concat[SA(Kh,Qh,Vh)]Wo   (8)

其中h=1,2...H,为变换矩阵;

B、残差模型的计算

引入残差神经网络ResNet来解决网络退化的问题,其数学模型为:

ResNet(K,Q,V)=relu[MHA(K,Q,V)]+MHA(K,Q,V)   (9)

C、全连接前馈神经网络模型的计算

对于B环节中归一化处理过后的脉冲序列数据,将其输入进全连接神经网络FCFFN(Fully Connected Feed-Forward Network),其数学模型为:

FCFFN(K,Q,V)=max[0,ResNet(K,Q,V)W1+b1]W2+b2  (10)

其中W1,W2,b1,b2为神经网络的权重与偏置;

D、Decoder中掩码多头注意力模型的计算

核脉冲序列数据在经过多个Encoder模型后传入Decoder模型中,Decoder相较于Encoder的MHA模型,Decoder采用掩码多头注意力模型MMHA(MaskedMulti-HeadAttention),使用和QKT同样维度的矩阵M作为mask矩阵,即:

接着在SA模型中用QKT点乘M;MMHA模型表示为:

MMHA(K,Q,V)=Concat[MSA(Kh,Qh,Vh)]Wo(12)

其中:

接着,将输出注意力模型的数据经过环节B、C后前向传播结束;

④梯形堆积核脉冲反向传播训练:对于有q个样本的训练集,在每次前向传播完成后输出的预测脉冲参数集合θi'与输入Transformer模型训练的实际脉冲参数集合θi的交叉熵(CE)值作为损失函数的函数值LossCE,即损失函数的计算式为:

为了让损失值下降到一定程度后,再逐渐恢复模型的学习率,采用带有预热机制的可变学习率,该学习率LR的数学模型为:

其中dm为位置向量的维度,Sn为训练的步数,Ws为预热参数,且设置该预热参数值为4000;

将LossCE与损失函数的梯度一起反馈给网络来更新权重,实现减少后续迭代中误差的目的;

⑤当一个具有识别脉冲参数集合θ能力的Transformer模型训练完成后,将训练完成的模型结构、权重、训练配置及优化器参数保存为HDF5(HierarchicalDataFormat5,HDF5)文件;然后将步骤①中欲进行参数识别的原始梯形堆积核脉冲的采样值作为Transformer模型的输入,进而由Transformer模型的输出得到所需提取的脉冲参数集合θ;

通过以上步骤①~⑤完成梯形堆积核脉冲的识别。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于成都理工大学;东北大学秦皇岛分校,未经成都理工大学;东北大学秦皇岛分校许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202210394146.3/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top