[发明专利]卷积神经网络的任务调度方法、系统、设备及存储介质在审
申请号: | 202210969193.6 | 申请日: | 2022-08-12 |
公开(公告)号: | CN115202848A | 公开(公告)日: | 2022-10-18 |
发明(设计)人: | 阎凯歌;宋艳爽;谭婧炜佳 | 申请(专利权)人: | 吉林大学 |
主分类号: | G06F9/48 | 分类号: | G06F9/48;G06F9/50;G06N3/04;G06N3/063 |
代理公司: | 北京集佳知识产权代理有限公司 11227 | 代理人: | 耿苑 |
地址: | 130000 吉*** | 国省代码: | 吉林;22 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 卷积 神经网络 任务 调度 方法 系统 设备 存储 介质 | ||
1.一种卷积神经网络的任务调度方法,其特征在于,包括:
接收待处理图像,并确定所述待处理图像对应的网络任务;
根据所述卷积神经网络所在脉动阵列的数据流方式构建性能模型;其中,所述数据流方式为权重固定数据流、输入固定数据流或输出固定数据流;
利用所述性能模型计算所述脉动阵列中每一加速器处理每一所述网络任务的时延信息,根据所述时延信息将所有所述网络任务分配至对应的加速器,以便得到所述卷积神经网络对所述待处理图像的图像处理结果。
2.根据权利要求1所述卷积神经网络的任务调度方法,其特征在于,根据所述卷积神经网络所在脉动阵列的数据流方式构建性能模型,包括:
根据所述脉动阵列的数据流方式确定卷积层执行时延LCONV;
根据所述卷积神经网络的输出层大小确定池化层执行时延LPOOL;
确定所述卷积神经网络的缓存时延LBUF;其中,所述缓存时延LBUF为卷积核缓存不足的总时延、输入缓存不足的总时延和输出缓存不足的总时延的总和;
根据所述卷积神经网络的总层数h、卷积层数hCONV、池化层数hPOOL、卷积层执行时延LCONV、池化层执行时延LPOOL和缓存时延LBUF构建所述性能模型。
3.根据权利要求2所述卷积神经网络的任务调度方法,其特征在于,根据所述脉动阵列的数据流方式确定卷积层执行时延LCONV,包括:
若所述脉动阵列的数据流方式为权重固定数据流,则利用第一公式计算卷积层执行时延LCONV;
若所述脉动阵列的数据流方式为输入固定数据流,则利用第二公式计算卷积层执行时延LCONV;
若所述脉动阵列的数据流方式为输出固定数据流,则利用第三公式计算卷积层执行时延LCONV;
其中,所述第一公式为S1=Wo×Ho×r1+r2;
所述第二公式为S2=K×r1+r2;
所述第三公式为LCONV=nt3×S3,S3=FCONV×FCONV×Di×r1+r2;
FCONV表示卷积核的高度,Di表示卷积输入层深度,Nr表示脉动阵列的行数,K表示卷积核数量,Nc表示脉动阵列的列数,Wo表示输出层的宽度,Ho表示输出层的高度,r1表示一次乘加操作的时延,r2表示并行任务启动的时延。
4.根据权利要求1所述卷积神经网络的任务调度方法,其特征在于,所述脉动阵列包括异构的脉动阵列加速器群;
相应的,根据所述时延信息将所有所述网络任务分配至对应的加速器,包括:
在约束条件下将所有所述网络任务分配至对应的加速器;其中,所述约束条件为脉动阵列加速器群处理所有所述网络任务的整体时延最小。
5.根据权利要求1所述卷积神经网络的任务调度方法,其特征在于,在根据所述时延信息将所有所述网络任务分配至对应的加速器之后,还包括:
对所述加速器的任务队列中的网络任务设置优先级分数;
控制所述加速器按照优先级分数从高到低的顺序处理对应的网络任务;
在所述加速器处理完一个网络任务后,增加任务队列的所有网络任务的优先级分数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于吉林大学,未经吉林大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210969193.6/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种宠物吸尘器毛发收集器
- 下一篇:一种板式太阳能海水处理装置