[发明专利]一种用于功率放大器的基于Group Lasso的神经网络裁剪方法有效
申请号: | 201910582403.4 | 申请日: | 2019-06-28 |
公开(公告)号: | CN110414565B | 公开(公告)日: | 2021-06-08 |
发明(设计)人: | 于翠屏;唐珂;刘元安;黎淑兰;苏明;吴永乐;王卫民;唐碧华 | 申请(专利权)人: | 北京邮电大学;中国空间技术研究院 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/08 |
代理公司: | 北京永创新实专利事务所 11121 | 代理人: | 冀学军 |
地址: | 100876 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 用于 功率放大器 基于 group lasso 神经网络 裁剪 方法 | ||
1.一种用于功率放大器的基于Group Lasso的神经网络模型裁剪方法,其特征在于,具体步骤如下:
步骤一、构建原始神经网络;
原始神经网络包含偏置,神经元输出为:f(o1a1+o2a2+...+onan+bias);
其中o1,o2...on为上一层神经元输出,a1,a2...an为上一层神经元连接到当前层神经元的权重,f(·)为神经元激活函数;bias为代表第三层神经元的偏置;
原始神经网络的损失函数为
yp为当前神经网络模型输出,y为实际功率放大器输出,其中N代表数据量即样本的输入和输出向量的对数;
所述的原始神经网络为实数型多层神经网络结构,即该神经网络的输入是由功率放大器原始当前输入与其时延输入的正交和同向分量组成的基函数构成,神经网络的输出是由功率放大器的当前输出的正交和同向分量构成,神经网络的输入、输出及其内部权重所有量都只包含实数;
步骤二、去掉原始神经网络中的偏置,改写原始神经网络激活函数,并将输出层以外的其余层中连接在同一个神经元的所有输出权重分为一组;
针对原始的神经网络,将训练参数去掉偏置,仅保留权重,得到新的神经元输出为:
f(o1a1+o2a2+...+onan)
将神经网络隐藏层的激活函数设置为奇数次多项式函数:
f(x)=p1x-p2x3+p3x5-p4x7+...
参数p自由调节;
步骤三、分组后对每组权重分别执行L2范数约束;
针对某神经元,对应的权重组施加L2范数约束如下:
其中wi代表连接在第i个神经元的所有输出权重组成的向量,称为一个权重组,该神经元共有n个输出权重,wi是该神经元的第i个输出权重,i=1,2,3…,n;
步骤四、将原始神经网络结构中所有权重组的L2范数之和作为Group Lasso罚项添加到原损失函数之后,得到新的损失函数Loss2;
新的损失函数Loss2公式如下:
λ代表控制神经网络的被简化程度的系数,λ越大,神经网络被简化程度越高;为所有权重组的L2范数之和;
步骤五、通过基于后向传播BP算法对新的损失函数Loss2进行极小化训练;
步骤六、在极小化训练完成的神经网络中,寻找收敛接近于0的权重组,并去掉这些权重组连接的神经元,得到裁剪后的基于Group Lasso的神经网络模型;
具体为:训练完成后,输出每一组的保存为一个变量,共k组,保存在命名为H1…Hk的k个变量中;k对应除了输出层外的所有神经元个数;
寻找k个变量H1…Hk中小于特定值的权重组,并裁剪掉这些权重组对应的神经元,得到简化后的神经网络;
步骤七、针对简化后的神经网络,采用BP算法对原始损失函数Loss1进行训练,得到训练完成的简化后的神经网络,并使用该神经网络模型对功率放大器进行建模或预失真。
2.如权利要求1所述的一种用于功率放大器的基于Group Lasso的神经网络模型裁剪方法,其特征在于,所述的步骤五中定义原点处的导数为0,避免导数不存在的情况。
3.如权利要求1所述的一种用于功率放大器的基于Group Lasso的神经网络模型裁剪方法,其特征在于,所述的步骤六中,寻找收敛接近于0的权重组,是指寻找小于设定阈值的权重组为接近于0的权重组,裁剪掉接近于0的权重组对应的神经元;
阈值大小根据需求自行设定;阈值越大,去掉的神经元越多。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京邮电大学;中国空间技术研究院,未经北京邮电大学;中国空间技术研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910582403.4/1.html,转载请声明来源钻瓜专利网。