[发明专利]神经网络模型运行方法、介质和电子设备在审
| 申请号: | 202210330475.1 | 申请日: | 2022-03-30 |
| 公开(公告)号: | CN114676832A | 公开(公告)日: | 2022-06-28 |
| 发明(设计)人: | 章小龙 | 申请(专利权)人: | 安谋科技(中国)有限公司 |
| 主分类号: | G06N3/063 | 分类号: | G06N3/063;G06N3/04 |
| 代理公司: | 上海华诚知识产权代理有限公司 31300 | 代理人: | 肖华 |
| 地址: | 200233 上海市闵行*** | 国省代码: | 上海;31 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 神经网络 模型 运行 方法 介质 电子设备 | ||
本申请涉及机器学习技术领域,特别涉及一种神经网络模型运行方法、介质和电子设备。本申请的神经网络模型运行方法,通过将具有相同运算形式和相同输入数据的运算项中的权重矩阵进行拼接,再利用该形式的运算项对应的运算单元基于拼接后的权重矩阵,通过一次从存储单元中获取输入数据即可得到各运算项的运算结果,从而提高了电子设备运算神经网络模型的速度。
技术领域
本申请涉及机器学习技术领域,特别涉及一种神经网络模型运行方法、介质和电子设备。
背景技术
随着人工智能(Artificial Intelligence,AI)技术的快速发展,神经网络(例如,深度神经网络、循环神经网络)近年来在计算机视觉、语音、自然语言、强化学习等领域中取得了非常好的效果。随着神经网络算法的发展,算法的复杂度越来越高,为了提高识别度,模型的规模在逐渐增大,相应地,部署有神经网络模型的设备的功耗和运算资源的消耗也越来大。尤其对于一些运算资源有限的边缘设备,提高神经网络模型的运算速度,节约运算时间,降低功耗尤为重要。
发明内容
本申请的目的在于提供了一种神经网络模型运行方法、介质和电子设备。通过本申请的神经网络模型运行方法,通过将具有相同运算形式和相同输入数据的运算项(如下文的公式(1)中的“xt×Wxz+ht-1×Whz”和公式(2)中的“xt×Wxr+ht-1×Whr运算形式相同,输入数据都为xt和ht-1)”中的权重矩阵(Wxz和Wxr以及Whz和Whr)进行拼接,再利用该形式的运算项对应的运算单元基于拼接后的权重矩阵,通过一次从存储单元中获取输入数据即可得到各运算项的运算结果。从而提高了电子设备运算神经网络模型的速度。
本申请的第一方面提供了一种神经网络模型运行方法,应用于电子设备,其特征在于,神经网络模型包括第一运算和第二运算。并且方法包括:获取第一运算或第二运算的待运算数据矩阵,其中,第一运算和第二运算中的运算因子的数量相同,并且对于第一运算中的各运算因子,在第二运算中存在待运算数据矩阵相同而运算系数矩阵不同的对应运算因子。对待运算数据矩阵进行第三运算,生成第三运算的结果矩阵,其中,第三运算为将第一运算和第二运算中相对应的运算因子的运算系数矩阵进行合并之后得到的运算方式。对第三运算的结果矩阵进行拆分,分别得到第一运算的结果矩阵和第二运算的结果矩阵。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于安谋科技(中国)有限公司,未经安谋科技(中国)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210330475.1/2.html,转载请声明来源钻瓜专利网。
- 上一篇:封装基板以及半导体装置
- 下一篇:一种高压静电式空气净化装置





