[发明专利]卷积神经网络的任务调度方法、系统、设备及存储介质在审
申请号: | 202210969193.6 | 申请日: | 2022-08-12 |
公开(公告)号: | CN115202848A | 公开(公告)日: | 2022-10-18 |
发明(设计)人: | 阎凯歌;宋艳爽;谭婧炜佳 | 申请(专利权)人: | 吉林大学 |
主分类号: | G06F9/48 | 分类号: | G06F9/48;G06F9/50;G06N3/04;G06N3/063 |
代理公司: | 北京集佳知识产权代理有限公司 11227 | 代理人: | 耿苑 |
地址: | 130000 吉*** | 国省代码: | 吉林;22 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 卷积 神经网络 任务 调度 方法 系统 设备 存储 介质 | ||
本申请公开了一种卷积神经网络的任务调度方法、系统、设备及存储介质,所属的技术领域为机器学习技术领域。卷积神经网络的任务调度方法,包括:接收待处理图像,并确定所述待处理图像对应的网络任务;根据所述卷积神经网络所在脉动阵列的数据流方式构建性能模型;利用所述性能模型计算所述脉动阵列中每一加速器处理每一所述网络任务的时延信息,根据所述时延信息将所有所述网络任务分配至对应的加速器,以便得到所述卷积神经网络对所述待处理图像的图像处理结果。本申请能够降低卷积神经网络的对网络任务的响应时间,提高图像处理效率。
技术领域
本申请涉及机器学习技术领域,特别涉及一种卷积神经网络的任务调度方法、系统、设备及存储介质。
背景技术
深度学习现在已经广泛应用于各领域,如计算机视觉、医疗保健、自动驾驶等,随着数据规模的爆炸式增长,深度学习对算力的需求也在急剧增加。传统的通用处理器,例如CPU与GPU等,在处理深度学习任务时算力有限且功耗较大,尤其是访存开销非常严重。近年来,专用的深度学习加速器受到广泛关注,这些加速器通常采用脉动阵列架构,这一架构可以有效实现大规模数据重用,从而避免了频繁访存导致的开销。相关技术中,计算处理任务时延的精准度较低,卷积神经网络的对网络任务的响应时间过长,影响图像处理操作的效率。
因此,如何降低卷积神经网络的对网络任务的响应时间,提高图像处理效率是本领域技术人员目前需要解决的技术问题。
发明内容
本申请的目的是提供一种卷积神经网络的任务调度方法、一种卷积神经网络的任务调度系统、一种电子设备及一种存储介质,能够降低卷积神经网络的对网络任务的响应时间,提高图像处理效率。
为解决上述技术问题,本申请提供一种卷积神经网络的任务调度方法,该任务调度方法包括:
接收待处理图像,并确定所述待处理图像对应的网络任务;
根据所述卷积神经网络所在脉动阵列的数据流方式构建性能模型;其中,所述数据流方式为权重固定数据流、输入固定数据流或输出固定数据流;
利用所述性能模型计算所述脉动阵列中每一加速器处理每一所述网络任务的时延信息,根据所述时延信息将所有所述网络任务分配至对应的加速器,以便得到所述卷积神经网络对所述待处理图像的图像处理结果。
可选的,根据所述卷积神经网络所在脉动阵列的数据流方式构建性能模型,包括:
根据所述脉动阵列的数据流方式确定卷积层执行时延LCONV;
根据所述卷积神经网络的输出层大小确定池化层执行时延LPOOL;
确定所述卷积神经网络的缓存时延LBUF;其中,所述缓存时延LBUF为卷积核缓存不足的总时延、输入缓存不足的总时延和输出缓存不足的总时延的总和;
根据所述卷积神经网络的总层数h、卷积层数hCONV、池化层数hPOOL、卷积层执行时延LCONV、池化层执行时延LPOOL和缓存时延LBUF构建所述性能模型。
可选的,根据所述脉动阵列的数据流方式确定卷积层执行时延LCONV,包括:
若所述脉动阵列的数据流方式为权重固定数据流,则利用第一公式计算卷积层执行时延LCONV;
若所述脉动阵列的数据流方式为输入固定数据流,则利用第二公式计算卷积层执行时延LCONV;
若所述脉动阵列的数据流方式为输出固定数据流,则利用第三公式计算卷积层执行时延LCONV;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于吉林大学,未经吉林大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210969193.6/2.html,转载请声明来源钻瓜专利网。
- 上一篇:一种宠物吸尘器毛发收集器
- 下一篇:一种板式太阳能海水处理装置