[发明专利]深度变分自编码器模型训练方法、装置、设备和存储介质在审
申请号: | 202111013553.7 | 申请日: | 2021-08-31 |
公开(公告)号: | CN113642716A | 公开(公告)日: | 2021-11-12 |
发明(设计)人: | 李鹏;黄文琦;梁凌宇;曾群生;陈佳捷;郭尧;衡星辰;林志达 | 申请(专利权)人: | 南方电网数字电网研究院有限公司 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08 |
代理公司: | 广州华进联合专利商标代理有限公司 44224 | 代理人: | 樊倩 |
地址: | 510700 广东省广州市黄*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 深度 编码器 模型 训练 方法 装置 设备 存储 介质 | ||
1.一种深度变分自编码器模型训练方法,其特征在于,应用于服务器,所述方法包括:
获取可视化图表训练样本,以及预先构建的深度变分自编码器模型骨架;其中,所述预先构建的深度变分自编码器模型骨架包含潜变量空间;
确定所述潜变量空间的维度和所述潜变量空间的因子先验分布;
基于所述维度和所述因子先验分布,利用所述可视化图表训练样本对所述预先构建的深度变分自编码器模型骨架进行训练,以使所述预先构建的深度变分自编码器模型骨架生成的重构图表概率分布与所述可视化图表训练样本的原始概率分布趋于一致,得到训练好的深度变分自编码器模型。
2.根据权利要求1所述的方法,其特征在于,所述基于所述维度和所述因子先验分布,利用所述可视化图表训练样本对所述预先构建的深度变分自编码器模型骨架进行训练,以使所述预先构建的深度变分自编码器模型骨架生成的重构图表概率分布与所述可视化图表训练样本的原始概率分布趋于一致,得到训练好的深度变分自编码器模型,包括:
获取基于梯度下降法的深度学习优化器;
基于所述维度、因子先验分布和深度学习优化器,利用所述基于梯度下降法的深度学习优化器以及所述可视化图表训练样本更新所述预先构建的深度变分自编码器模型骨架的模型参数,以使所述基于梯度下降法的深度学习优化器的损失函数值最大化,得到所述训练好的深度变分自编码器模型。
3.根据权利要求2所述的方法,其特征在于,所述获取可视化图表训练样本之后,所述方法还包括:
利用线性变换方法基于所述可视化图表训练样本构建增广样本;
所述基于所述维度和所述因子先验分布,利用所述可视化图表训练样本对所述预先构建的深度变分自编码器模型骨架进行训练,以使所述预先构建的深度变分自编码器模型骨架生成的重构图表概率分布与所述可视化图表训练样本的原始概率分布趋于一致,得到训练好的深度变分自编码器模型,包括:
基于所述维度、所述因子先验分布和所述深度学习优化器,利用所述增广样本对所述预先构建的深度变分自编码器模型骨架进行训练,以使所述基于梯度下降法的深度学习优化器的损失函数值最大化,且最优运输损失最小化,得到训练好的深度变分自编码器模型;
其中,所述最优运输损失最小化,是指所述增广数据在所述潜变量空间上预测分布与最有运输路径计算出的分布近似。
4.根据权利要求3所述的方法,其特征在于,所述利用线性变换方法基于所述可视化图表训练样本构建增广样本,包括:
对于所述可视化图表训练样本中的任意两个可视化图表,利用线性变换公式对所述任意两个可视化图表进行计算,得到线性所述增广样本;其中,所述线性变换公式为:
其中,λ为线性增广参数,为增广样本,X1与X2为所述可视化图表训练样本中的任意两个可视化图表。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
利用泽维尔初始化方法对深度变分自编码器模型骨架进行参数初始化,得到所述预先构建的深度变分自编码器模型骨架。
6.根据权利要求1至5任一项所述的方法,其特征在于,所述可视化图表训练样本为独立同分布的样本。
7.根据权利要求1至5任一项所述的方法,其特征在于,
所述预先构建的深度变分自编码器模型骨架包括编码器和解码器;所述编码器是基于全卷积神经网络、稠密卷积神经网络或者残差神经网络构建的;所述解码器是基于反卷积算子构建的。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南方电网数字电网研究院有限公司,未经南方电网数字电网研究院有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111013553.7/1.html,转载请声明来源钻瓜专利网。