[发明专利]生成神经网络模型的方法和装置有效
| 申请号: | 202010387565.5 | 申请日: | 2020-05-09 |
| 公开(公告)号: | CN111582452B | 公开(公告)日: | 2023-10-27 |
| 发明(设计)人: | 希滕;张刚;温圣召 | 申请(专利权)人: | 北京百度网讯科技有限公司 |
| 主分类号: | G06N3/0464 | 分类号: | G06N3/0464;G06N3/08 |
| 代理公司: | 北京英赛嘉华知识产权代理有限责任公司 11204 | 代理人: | 王达佐;马晓亚 |
| 地址: | 100085 北京市*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 生成 神经网络 模型 方法 装置 | ||
本申请涉及人工智能领域,公开了生成神经网络模型的方法和装置。该方法包括:基于目标神经网络模型的结构构建超网络,超网络的各层包括分别与目标神经网络模型的各层对应的候选结构单元集合,且候选结构单元集合包括目标神经网络模型的结构中对应层的网络结构单元以及至少一个与目标神经网络模型的结构中对应层的网络结构单元相似的候选结构单元;初始化超网络,并基于预设域的样本数据和超网络各层对应的候选结构单元集合训练超网络;将训练完成的超网络中与目标神经网络模型对应的目标子网络的参数同步至目标神经网络模型。该方法实现了目标神经网络模型的优化。
技术领域
本公开的实施例涉及计算机技术领域,具体涉及人工智能技术领域,尤其涉及生成神经网络模型的方法和装置。
背景技术
随着人工智能技术和数据存储技术的发展,深度神经网络在许多领域的任务中取得了重要的成果。深度神经网络经过训练后可被应用于执行相应的深度学习任务,其训练效果依赖于大量的训练数据。而在一些场景中,训练数据难以获取,例如红外图像、深度图像不易收集,所以无法构建大规模的样本数据集来实现对应深度神经网络的性能优化。
目前的方法包括将样本数量较大的域中训练出的神经网络模型转用至样本数量较小的域。例如将基于彩色人脸图像训练完成的人脸识别模型应用于红外人脸图像的识别。然而,由于不同域的数据之间的差异较大,样本数量较大的域中训练出的神经网络模型在样本数量较小的域中的效果不理想。
发明内容
本公开的实施例提供了生成神经网络模型的方法和装置、电子设备以及计算机可读存储介质。
根据第一方面,提供了一种生成神经网络模型的方法,包括:基于目标神经网络模型的结构构建超网络,超网络的各层包括分别与目标神经网络模型的各层对应的候选结构单元集合,且候选结构单元集合包括目标神经网络模型的结构中对应层的网络结构单元以及至少一个与目标神经网络模型的结构中对应层的网络结构单元相似的候选结构单元;初始化超网络,并基于预设域的样本数据和超网络各层对应的候选结构单元集合训练超网络;将训练完成的超网络中与目标神经网络模型对应的目标子网络的参数同步至目标神经网络模型。
根据第二方面,提供了一种生成神经网络模型的装置,包括:构建单元,被配置为基于目标神经网络模型的结构构建超网络,超网络的各层包括分别与目标神经网络模型的各层对应的候选结构单元集合,且候选结构单元集合包括目标神经网络模型的结构中对应层的网络结构单元以及至少一个与目标神经网络模型的结构中对应层的网络结构单元相似的候选结构单元;训练单元,被配置为初始化超网络,并基于预设域的样本数据和超网络各层对应的候选结构单元集合训练超网络;同步单元,被配置为将训练完成的超网络中与目标神经网络模型对应的目标子网络的参数同步至目标神经网络模型。
根据第三方面,提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行第一方面提供的生成神经网络模型的方法。
根据第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行第一方面提供的生成神经网络模型的方法。
根据本申请的技术通过基于目标神经网络模型的结构构建超并训练超网络,实现了目标神经网络模型的参数优化。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显:
图1是本公开的生成神经网络模型的方法的一个实施例的流程图;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京百度网讯科技有限公司,未经北京百度网讯科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010387565.5/2.html,转载请声明来源钻瓜专利网。





