[发明专利]一种在FPGA上运行卷积神经网络的方法和装置有效
申请号: | 201910075397.3 | 申请日: | 2019-01-25 |
公开(公告)号: | CN109840589B | 公开(公告)日: | 2021-09-24 |
发明(设计)人: | 陈海波 | 申请(专利权)人: | 深兰人工智能芯片研究院(江苏)有限公司 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08 |
代理公司: | 北京同达信恒知识产权代理有限公司 11291 | 代理人: | 黄志华 |
地址: | 213161 江苏省常州市武进*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: |
本发明提供一种在FPGA上运行卷积神经网络的方法和装置,用于解决现有技术中在FPGA上运行卷积神经网络时,存在实施步骤繁琐、时间成本高的问题。方法包括:上位机根据预设的量化位宽计算对卷积神经网络模型的每个卷积层的各个计算参数进行量化的压缩尺度;根据每个卷积层对应的压缩尺度,确定出FPGA在执行该卷积层的运算时,该FPGA对该卷积层进行卷积计算所使用的卷积核权重W |
||
搜索关键词: | 一种 fpga 运行 卷积 神经网络 方法 装置 | ||
【主权项】:
1.一种在可编程器件FPGA上实现卷积神经网络运算的方法,其特征在于,所述方法包括:上位机根据预设的量化位宽计算对卷积神经网络模型的每个卷积层的各个计算参数进行量化的压缩尺度;其中,所述压缩尺度包括对所述每个卷积层的输出结果进行量化的第一压缩尺度scaleout、对所述每个卷积层的卷积核权重进行量化的第二压缩尺度scalew以及对所述每个卷积层的偏置进行量化的第三压缩尺度scalebias;所述上位机根据所述每个卷积层对应的压缩尺度,确定出FPGA在执行该卷积层的运算时,所述FPGA对该卷积层进行卷积计算所使用的卷积核权重Wf、对该卷积层的卷积计算结果进行移位操作的移位尺度参数scalef1以及对该卷积层的移位计算结果进行偏置操作的偏置Biasf;所述上位机将所述每个卷积层对应的Wf、scalef以及Biasf写入所述FPGA,以使所述FPGA在运行所述卷积神经网络模型时,基于所述每个卷积层对应的Wf、scalef以及Biasf执行该卷积层的运算。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深兰人工智能芯片研究院(江苏)有限公司,未经深兰人工智能芯片研究院(江苏)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910075397.3/,转载请声明来源钻瓜专利网。