专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果8个,建议您升级VIP下载更多相关专利
  • [发明专利]矩阵向量乘电路以及循环神经网络硬件加速器-CN201810719332.3有效
  • 李於彬;康君龙 - 赛灵思公司
  • 2018-07-03 - 2022-08-19 - G06F7/544
  • 本发明公开了一种矩阵向量乘电路和循环神经网络硬件加速器。一种矩阵向量乘电路,包括至少一个运算单元组,每组包含多个运算单元;该电路的矩阵输入部分用于使得输入矩阵的各列的元素在每个循环按照时钟周期依次逐个输入给对应运算单元;该电路的向量输入部分用于使得输入向量的各元素按照时钟周期被输入到对应运算单元;该电路的部分和输入部分用于将一个运算单元的计算结果输出给下一个作为其输入;最后一个运算单元的输出数据将被作为新输入向量的元素数据按照时钟周期依次串行传输给向量输入部分。通过使输入数据和输出数据均脉动地流动,本发明的矩阵向量乘电路的布线大大减少,电路结构简洁规整,大大减少了电路设计和实现的复杂性。
  • 矩阵向量电路以及循环神经网络硬件加速器
  • [发明专利]用于LSTM网络的硬件加速器-CN201810157774.3有效
  • 康君龙;李於彬 - 赛灵思电子科技(北京)有限公司
  • 2018-02-24 - 2021-07-30 - G06N3/063
  • 本发明公开了一种用于长短期记忆(LSTM)网络的硬件加速器。LSTM计算模块对T个有序输入进行前向LSTM计算,得到分别对应于所述T个有序输入的T个第一输出,并对所述T个有序输入进行后向LSTM计算,得到分别对应于所述T个有序输入的T个第二输出,其中,T为正整数。第一缓存用于缓存所述第一输出和所述第二输出。组合模块对所述第一缓存中缓存的对应于同一个输入的第一输出和第二输出执行组合运算,以得到对应于所述同一个输入的组合输出。由此,可以提高双向LSTM计算性能,降低响应延时,实现对双向LSTM网络计算的加速效果。
  • 用于lstm网络硬件加速器
  • [发明专利]深度学习softmax分类器的硬件实现电路及其控制方法-CN201711039589.6有效
  • 张玉;康君龙;谢东亮 - 赛灵思公司
  • 2017-10-30 - 2020-12-08 - G06N3/08
  • 本公开提供一种深度学习softmax分类器的硬件实现电路及其控制方法。硬件实现电路(100)包括:接口数据读控制模块(110),用于从外部存储器中读取计算数据给指数计算模块(120);指数计算模块(120),用于并行地进行浮点元素的指数运算;加法树模块(130),用于进行指数计算模块(120)的运算结果的累加运算;缓存模块(140),用于缓存指数计算模块(120)的运算结果以及加法树模块(130)的累加运算结果;除法计算模块(150),用于并行地计算各个浮点元素的指数运算结果与所有浮点元素指数运算结果之和的比值;接口数据写控制模块(160),用于将除法计算模块(150)的计算结果写入外部存储器。
  • 深度学习softmax分类硬件实现电路及其控制方法
  • [发明专利]一种基于FPGA实现RNN神经网络的硬件加速器及方法-CN201611107809.X有效
  • 康君龙;韩松;单羿 - 赛灵思公司
  • 2016-12-05 - 2020-07-03 - G06N3/04
  • 本发明提出一种实现循环神经网络(RNN)的方法,所述方法包括步骤:初始化步骤,完成数据的初始化,即,将计算Whxx所需的数据读入FPGA片上内存,包括输入向量x,和输入向量x对应权重矩阵Whx的所有信息;步骤1,计算单元开始计算Whxx,同时将计算Whhx所需的数据读入FPGA片上内存;步骤2,计算单元计算Whhht‑1,其中ht‑1是隐含层对上一个输入向量的激励值,同时将计算下一个Whxx所需的数据读入FPGA片上内存;迭代重复执行上述步骤1和步骤2。本发明另外提出一种用于实现RNN神经网络的装置,包括输入接收单元,用于接收多个输入向量或隐含层激励值向量;多个计算单元PE,每个计算单元包括稀疏矩阵读取单元,运算单元和运算缓存单元;数据组合单元,用于接收从各个计算单元中的缓存单元输出的矩阵运算的结果,并将其组合成一个完整的矩阵运算结果输出至加法器;控制单元,用于对所述多个计算单元进行全局控制。
  • 一种基于fpga实现rnn神经网络硬件加速器方法

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top