[发明专利]一种网络模型的训练方法以及相关装置有效
申请号: | 201910331313.8 | 申请日: | 2019-04-23 |
公开(公告)号: | CN110222705B | 公开(公告)日: | 2023-10-24 |
发明(设计)人: | 陈汉亭;舒晗;王云鹤;许春景 | 申请(专利权)人: | 华为技术有限公司 |
主分类号: | G06V10/774 | 分类号: | G06V10/774;G06V10/82;G06V10/74;G06N3/0475;G06N3/094;G06N3/0464;G06N3/045 |
代理公司: | 深圳市深佳知识产权代理事务所(普通合伙) 44285 | 代理人: | 王仲凯 |
地址: | 518129 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 网络 模型 训练 方法 以及 相关 装置 | ||
本申请公开了一种网络模型的训练方法,可以应用于对网络模型进行训练的服务器中,服务器可以分别获取第一生成网络和第二生成网络,并利用第二生成网络输出的第二转换后图像,对第一生成网络进行迭代训练,由于第二生成网络为执行过训练操作的大型网络,则可以保证执行过训练操作的第三生成网络的图像处理能力较好,且由于第一生成网络的参数量小于第二生成网络,从而第一生成网络占用的内存面积,且运算量较少。
技术领域
本申请涉及人工智能领域,尤其涉及一种网络模型的训练方法以及相关装置。
背景技术
随着深度学习技术的发展,生成对抗网络已经被成功的应用于图像处理领域,特别是应用于移动终端的图像风格迁移、人像渲染等多种图像处理场景中,生成对抗网络都有着巨大的应用前景。具体的,生成对抗网络中包含生成网络和判别网络,在初始化一组生成对抗网络之后,生成网络和判别网络之间可以互相迭代训练,从而可以得到一个成熟的生成网络,终端设备利用训练好的生成网络进行图像处理。
但是,现有技术中的生成网络占用的内存较大,且需要的计算量也往往很大,而终端设备往往不具备有良好计算性能和较大缓存的处理器,因此,现有的生成网络较难运行于终端设备上,为了提高生成网络与终端设备之间的兼容性,需要将现有的生成网络压缩至更小的体积并降低它的计算量。
但由于现有的针对压缩和加速算法都是基于分类、检测等类别的神经网络,而生成网络与前述类别的神经网络差别较大,因此,亟需推出一种针对生成网络的压缩加速方案。
发明内容
本申请实施例提供了一种网络模型的训练方法以及相关装置,通过减少生成网络的参数量来实现对生成网络的压缩和加速,且利用执行过训练操作的大型网络对待训练的小型生成网络进行训练,保证了压缩后的生成网络仍然可以输出较高质量的图像。
第一方面,本申请实施例提供一种网络模型的训练方法。服务器可以初始化第一生成对抗网络,并从中获取第一生成网络,以及从第二生成对抗网络中获取第二生成网络,其中,第一生成网络为待训练的小型网络,第二生成网络为执行过训练操作的大型网络,第一生成网络中的参数量小于第二生成网络中的参数量,并将待转换图像输入第一生成网络,得到第一转换后图像,以及将待转换图像输入第二生成网络,得到第二转换后图像,然后可以根据第一转换后图像和第二转换后图像,对第一生成网络进行迭代训练,直至第一生成网络输出的第一转换后图像和第二生成网络输出的第二转换后图像的相似度达到预设阈值时,获取第三生成网络,第三生成网络为第一生成网络执行过迭代训练后得到的网络,其中,第一生成网络的参数量可以为第二生成网络的参数量的四分之一、三分之一或六分之一。
本申请中,获取第一生成网络和第二生成网络之后,将待转换图像输入第一生成网络,得到第一转换后图像,以及将待转换图像输入第二生成网络,得到第二转换后图像,并根据第一转换后图像和第二转换后图像,对第一生成网络进行迭代训练,直至第一生成网络输出的第一转换后图像和第二生成网络输出的第二转换后图像的相似度达到预设阈值,进而获取第一生成网络执行过迭代训练后得到的第三生成网络。由于第一生成网络(也即第三生成网络)的参数量小于第二生成网络的参数量,从而不仅减少了第三生成网络占用的内存面积,且减少了第三生成网络的运算量,也即实现了对生成网络的压缩和加速;此外,由于第一生成网络为待训练的小型网络,第二生成网络为执行过训练操作的大型网络,利用第二生成网络输出的图像对第一生成网络进行迭代训练,直至第一生成网络输出的第一转换后图像和第二生成网络输出的第二转换后图像的相似度达到预设阈值,从而保证执行过训练操作的第三生成网络的图像处理能力较好,也即保证了压缩后的生成网络仍然可以输出较高质量的图像。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华为技术有限公司,未经华为技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910331313.8/2.html,转载请声明来源钻瓜专利网。