[发明专利]神经网络架构搜索方法、装置、电子设备及存储介质有效
申请号: | 202110191861.2 | 申请日: | 2021-02-19 |
公开(公告)号: | CN112906865B | 公开(公告)日: | 2023-08-18 |
发明(设计)人: | 骆剑平;陈宇苏 | 申请(专利权)人: | 深圳大学 |
主分类号: | G06N3/0464 | 分类号: | G06N3/0464;G06N3/086;G06V10/82 |
代理公司: | 北京品源专利代理有限公司 11332 | 代理人: | 潘登 |
地址: | 518060 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 神经网络 架构 搜索 方法 装置 电子设备 存储 介质 | ||
本申请实施例公开了一种神经网络架构搜索方法、装置、电子设备及存储介质。该方法包括:根据第一搜索参数设置和样本图像数据集,对初始种群中的至少两个网络个体进行搜索训练,并根据搜索训练结果,从所述至少两个网络个体中确定目标网络个体;其中,每个网络个体包括链式连接的至少两个网络单元,每个网络单元包括至少两个节点;根据第二搜索参数设置和样本图像数据集,对所述目标网络个体进行搜索训练,得到初始神经网络模型;确定所述初始神经网络模型的网络单元中节点之间的运算方式,以得到目标神经网络模型。通过上述技术方案,同时在平衡网络性能和计算资源代价的前提下,得到了最优的目标神经网络。
技术领域
本申请实施例涉及图像处理技术领域,尤其涉及一种神经网络架构搜索方法、装置、电子设备及存储介质。
背景技术
神经网络架构搜索(Neural Network Architecture Search,NAS)是自动机器学习(Auto Machine Learning,Auto-ML)领域的一个重要的研究方向,其主要过程是在一个事先定义好的包含多种不同神经网络具体操作的搜索空间中,使用特定的搜索方法进行网络搜索,最终组合得到一个或多个性能较好的神经网络。在这个过程中,搜索方法是技术的关键,搜索方法直接决定了搜索过程中的计算代价消耗和最终的网络性能。
现有技术中,NAS的主流方法有基于进化的方法、基于梯度下降的方法和基于强化学习的方法。但是,基于进化的方法在求解的过程中,算法需要消耗大量的时间和计算资源;基于梯度下降的方法在求解的过程中,算法容易陷入到局部最优的状态,使得网络架构同样处于局部最优的状态,造成了网络架构的单一性,从而限制了性能。
发明内容
本申请实施例提供了一种神经网络架构搜索方法、装置、电子设备及存储介质,以确定最优的神经网络模型,提高网络性能。
第一方面,本申请实施例提供了一种神经网络架构搜索方法,所述方法包括:
根据第一搜索参数设置和样本图像数据集,对初始种群中的至少两个网络个体进行搜索训练,并根据搜索训练结果,从所述至少两个网络个体中确定目标网络个体;其中,每个网络个体包括链式连接的至少两个网络单元,每个网络单元包括至少两个节点;
根据第二搜索参数设置和样本图像数据集,对所述目标网络个体进行搜索训练,得到初始神经网络模型;
确定所述初始神经网络模型的网络单元中节点之间的运算方式,以得到目标神经网络模型。
第二方面,本申请实施例提供了一种神经网络架构搜索装置,所述装置包括:
目标网络个体确定模块,用于根据第一搜索参数设置和样本图像数据集,对初始种群中的至少两个网络个体进行搜索训练,并根据搜索训练结果,从所述至少两个网络个体中确定目标网络个体;其中,每个网络个体包括链式连接的至少两个网络单元,每个网络单元包括至少两个节点;
初始神经网络模型确定模块,用于根据第二搜索参数设置和样本图像数据集,对所述目标网络个体进行搜索训练,得到初始神经网络模型;
运算方式确定模块,用于确定所述初始神经网络模型的网络单元中节点之间的运算方式,以得到目标神经网络模型。
第三方面,本申请实施例提供了一种电子设备,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本申请任一实施例所提供的神经网络架构搜索方法。
第四方面,本申请实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本申请任一实施例所提供的神经网络架构搜索方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳大学,未经深圳大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110191861.2/2.html,转载请声明来源钻瓜专利网。