专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果16个,建议您升级VIP下载更多相关专利
  • [发明专利]一种用于大语言模型中Softmax函数训练的装置-CN202310881111.7在审
  • 王中风;邵海阔;鲁金铭 - 南京大学
  • 2023-07-18 - 2023-09-29 - G06N3/084
  • 本发明提供了一种用于大语言模型中Softmax函数训练的装置,所述装置的上半部分是前向传播路径,下半部分是反向传播路径;所述前向传播路径包含ex指数函数单元、加法器和除法器,在ex指数函数单元、加法器和除法器之间均插入了寄存器;所述反向传播路径包含两个乘法器、一个加法器A1,以及用于重构数据路径的多路选择器MUX;所述两个乘法器分别为左侧乘法器B1,右侧乘法器B2;所述多路选择器MUX用于改变装置内部的数据流;所述前向传播路径和反向传播路径共用两个随机存取存储器RAM1和RAM2。本发明可应用于Softmax函数在训练各个阶段的计算,从而更好地利用计算和存储资源,以实现更高的性能和能效。
  • 一种用于语言模型softmax函数训练装置
  • [发明专利]用于Transformer类模型训练的矩阵乘法器-CN202310772645.6在审
  • 王中风;邵海阔;鲁金铭 - 南京大学
  • 2023-06-28 - 2023-09-12 - G06F17/16
  • 本发明提供了用于Transformer类模型训练的矩阵乘法器,包括M行N列个脉动阵列,所述脉动阵列是二维的,通过R行C列个相互连接的处理单元PE构成,每个处理单元PE均包括1个乘法器、1个加法器、2个内部寄存器、1个左侧多路选择器,以及2个右侧多路选择器;所述左侧多路选择器能够选择乘法器的输入是来自处理单元PE外部或是保持上一周期的输入,当选择保持上一周期的输入时,处理单元PE以权重保持WS数据流工作;本发明设计了一种可重构的处理单元(PE),可以在训练的不同阶段和不同周期灵活地支持多种数据流,并根据需求选择数据来源。
  • 用于transformer模型训练矩阵乘法器
  • [发明专利]一种面向卷积神经网络训练的高效可重构硬件加速器-CN202110678678.5在审
  • 王中风;鲁金铭;倪超 - 南京大学
  • 2021-06-18 - 2022-12-20 - G06N3/06
  • 本申请涉及卷积神经网络技术领域,提供一种面向卷积神经网络训练的高效可重构硬件加速器,包括PE阵列,PE阵列包括K个PE簇,每个PE簇中包括三个输入行、加法树和部分和缓存器,每个输入通道中设置有多个PE基本单元,三个输入行之间的求和由加法树完成,加法树得到的中间计算结果存入部分和缓存器中。在实际应用过程中,能够支持DNN训练过程中不同计算阶段多种不同的计算模式;能够在不同维度实现并行计算,从而提高处理速度;能够消除卷积层在不同阶段的无效计算,提高计算利用率;以一种灵活的访存方案,实现不同层面的数据复用,降低数据访问量,从而降低时间和功耗开销。
  • 一种面向卷积神经网络训练高效可重构硬件加速器
  • [发明专利]神经网络归一化训练方法及其架构单元-CN202110652981.8在审
  • 王中风;鲁金铭 - 南京大学
  • 2021-06-11 - 2022-12-13 - G06N3/04
  • 本申请公开一种神经网络归一化训练方法及其架构单元,所述方法中前向传播过程包括:对输入特征向量求绝对值,根据绝对值及输入特征向量的大小获取平均值;将平均值加上常数后求倒数,得中间参数;将输入特征向量乘中间参数,得中间特征向量;用可训练参数对特征向量线性变换,得输出结果;反向传播过程包括:对误差特征向量累加得第一参数的梯度;将误差特征向量与中间特征向量乘积累加,得第二参数的梯度;将第二参数的梯度除以输入特征向量的大小得均值;根据中间参数、第二参数、误差特征向量、中间特征向量及均值,计算输出梯度。采用前述方案,避免对batch‑size与卷积层数据依赖,降低存储需求及处理延时,不涉及平方、开方等复杂运算,对硬件友好。
  • 神经网络归一化训练方法及其架构单元
  • [发明专利]数据表示方法、张量量化方法及乘加计算装置-CN202110594512.5在审
  • 王中风;鲁金铭 - 南京大学
  • 2021-05-28 - 2022-11-29 - G06F7/544
  • 本申请提供一种数据表示方法、张量量化方法及乘加计算装置。所述数据表示方法包括:获取目标数据,所述目标数据包括标志位和有符号数,所述标志位和所述有符号数的位宽之和等于预设位宽,所述有符号数包括高位和低位;获取所述有符号数的分割位;根据标志位和高位中的各个数值,确定目标数据的所属分段;根据目标数据的所属分段,对所述目标数据进行表示。可以推断,一个k‑bit的PINT所能表示的动态范围为[‑22(k‑2),22(k‑2)],相当于一个(2k‑3)‑bit的INT格式所能表示的范围。相比于FP32,在计算时的复杂度降低,且不影响模型精度。
  • 数据表示方法张量量化计算装置
  • [发明专利]基于卷积神经网络的块稀疏方法、装置及处理单元-CN202210844507.X在审
  • 王中风;徐铭阳;鲁金铭;林军 - 南京大学
  • 2022-07-18 - 2022-10-14 - G06N3/04
  • 本申请涉及数据处理技术领域,提供一种基于卷积神经网络的块稀疏方法、装置及处理单元,所述基于卷积神经网络的块稀疏方法,通过将维度为N×C×K×K的原始权重,转换为K2个C×K的重排权重,然后根据预设维度,将重排权重分割为多个数据块,最后根据预先设置的数据稀疏度,剪去所述多个数据块内冗余的非零值。对于数据块而言,剪去的是对数据块影响较小的数据,这可以减少稀疏对于训练精度的影响,因此可以达到较高的稀疏度,同时,在硬件设计时,解决传统训练加速器在处理稀疏张量时,存在的不同处理单元之间运算任务不平衡的问题,且在前向传播和反向传播过程中,避免造成权重数据在存储上的读写冲突。
  • 基于卷积神经网络稀疏方法装置处理单元
  • [发明专利]一种基于对数块浮点量化的神经网络加速系统-CN202210300275.1在审
  • 王中风;倪超;鲁金铭;林军 - 南京大学
  • 2022-03-24 - 2022-06-14 - G06N3/063
  • 本申请提供一种基于对数块浮点量化的神经网络加速系统。所述系统包括编译器、运行时和神经网络加速器,在使用时,编译器按照量化分块粒度对待部署模型数据进行分块,并将待部署模型全部转换为硬件指令,通过运行时与神经网络加速器进行交互,神经网络加速器根据指令将数据按照搬运分块粒度从片外分块搬运至片上进行加载,并对各个数据量化分块进行对数块浮点量化,最终利用量化结果执行对应的神经网络运算。整个系统通过编译器将模型转换为硬件可以识别的指令,由运行时向硬件下发指令和数据并与硬件进行高效通信,同时采用完全适配于对数块浮点量化方法的硬件架构,计算冗余较少,计算效率较高,可以有效地支持深度神经网络模型的端到端部署。
  • 一种基于对数浮点量化神经网络加速系统
  • [发明专利]一种应用于片上训练的稀疏加速器-CN202210094538.8在审
  • 王中风;黄健;鲁金铭 - 南京大学
  • 2022-01-26 - 2022-05-13 - G06N3/04
  • 本申请实施例提供的一种应用于片上训练的稀疏加速器,通过在不同的加速阶段动态调整输入数值缓冲模块中的多个输入数值、参考数值缓冲模块中的多个参考数值以及掩码缓冲模块中的掩码,以及使粗粒度单元以粗粒度对无效运算进行初步筛选,以及使处理模块中每个处理单元包括的细粒度单元以细粒度对无效运算进行进一步筛选,从而剔除片上训练三个训练阶段中全部的无效运算,此外,多个计算核可以进行并行加速处理,多个计算核中处理模块包括的多个处理单元也可以进行并行加速处理,进一步提高了稀疏加速器的硬件利用率。如此,本申请的一种应用于片上训练的稀疏加速器可以高效、准确地剔除片上训练三个阶段的所有无效运算。
  • 一种应用于训练稀疏加速器
  • [发明专利]一种基于卷积神经网络的模型稀疏方法-CN202210098264.X在审
  • 刘阳;鲁金铭 - 南京风兴科技有限公司
  • 2022-01-26 - 2022-05-06 - G06N3/04
  • 本申请提供一种基于卷积神经网络的模型稀疏方法。解决了提高稀疏模型精度的技术问题。模型稀疏方法包括:根据预训练模型的稀疏需求,设定稀疏比例sl;根据所述sl,稀疏所述预训练模型中每层的参数Wl,得到稀疏模型;计算第一中间结果和第二中间结果的误差损失;其中,所述第一中间结果为所述预训练模型第1层的中间结果;所述第二中间结果为所述稀疏模型中第1层的中间结果;根据预设权重,对所述误差损失加权,得到加权结果;将所述加权结果累加至模型预测误差上,得到最终损失;根据所述最终损失,更新所述稀疏模型的网络参数。本申请通过利用稀疏前的网络中间层结果为稀疏后的网络提供指导训练,加速收敛过程,提升网络精度。
  • 一种基于卷积神经网络模型稀疏方法
  • [发明专利]一种卷积神经网络训练感知量化方法及装置-CN202210115615.3在审
  • 刘阳;鲁金铭 - 南京风兴科技有限公司
  • 2022-02-07 - 2022-05-06 - G06N3/04
  • 本申请涉及人工智能技术领域,提供一种卷积神经网络训练感知量化方法及装置,该方法基于卷积神经网络的输入特征图、权重以及偏置,在训练的前向计算中加入多个第一量化因子,通过第一量化因子将第二量化因自限定为2的整数次幂,以对每个网络层的输入特征图、权重以及偏置分别进行量化,在硬件计算中可以通过简单的移位操作完成,还建立的量化因子的约束条件,通过各层量化因子的约束,使在训练中量化因子的值沿模型前向执行过程传播,并根据约束关系自适应对齐,进一步避免大量的浮点运算和复杂的重量化,以实现全整型量化。
  • 一种卷积神经网络训练感知量化方法装置
  • [发明专利]一种模型训练方法-CN202111628710.5在审
  • 王中风;邵海阔;鲁金铭;魏敬和 - 南京大学
  • 2021-12-28 - 2022-04-29 - G06N3/08
  • 本申请提供一种模型训练方法,包括定义一个新的量化线性层;将量化线性层的多维输入张量中全部元素量化为PINT格式,对量化线性层的待计算张量中全部元素量化为PINT数据格式,将量化后的多维输入张量和待计算张量进行矩阵乘计算得到定点结果;将定点结果反量化为浮点数并传播到后续网络层;将模型中原有的线性层替换为量化线性层,以及基于浮点数和PINT数据格式对模型进行训练。本申请开发了一种基于PINT数据格式的量化线性层,将低比特、高表示能力的PINT数据格式应用到模型训练,用量化线性层替换模型中使用到的线性层,使得在训练出的模型准确度变化很小的情况下有效的降低了数据计算和存储等方面的需求。
  • 一种模型训练方法
  • [发明专利]一种深度神经网络训练方法及装置-CN201911112321.X在审
  • 鲁金铭;王中风;林军 - 南京风兴科技有限公司
  • 2019-11-14 - 2021-05-14 - G06F9/30
  • 本发明公开了一种深度神经网络训练方法及装置,该方法包括:通过建立深度神经网络框架;获取全精度浮点数格式的待处理数据;利用所述全精度浮点数格式的待处理数据对所述深度神经网络框架进行预热训练;将所述全精度浮点数据格式的待处理数据转化为Posit格式数据;利用所述Posit格式数据对所述预热训练后的深度神经网络框架进行训练。与现有技术相比,本实施例通过采用全精度浮点数格式的待处理数据对深度神经网络框架进行预热训练,再将全精度浮点数格式的待处理数据转化为Posit格式数据,利用Posit格式数据对预热训练后的深度神经网络框架进行训练,能够减少存储资源的占用,缩短训练时间,提高训练效率。
  • 一种深度神经网络训练方法装置
  • [发明专利]一种可重构神经网络训练计算方法及装置-CN202011158090.9在审
  • 王中风;尹彤彤;鲁金铭;林军 - 南京大学
  • 2020-10-26 - 2021-01-05 - G06F7/498
  • 本申请公开了一种可重构神经网络训练计算方法及装置,包括获取输入数据的属性信息;所述属性信息包括卷积核大小、步长值和计算模式信息;根据所述属性信息生成控制指令,将原始计算单元配置为训练计算单元;本申请的方案采用多路选择器来适配不同的计算模式,通过获取输入数据的属性信息,并根据属性信息将原始计算单元配置为训练计算单元,使得训练计算单元可以高效支持前向传播、反向传播、梯度生成过程中多种不同的计算模式,提高计算单元利用率,还具有消除不同阶段下产生的无效计算的效果;同时,通过该架构的灵活性,有提高单元利用率的优点,能够降低冗余计算和提高数据复用率,从而能够加速卷积网络训练过程。
  • 一种可重构神经网络训练计算方法装置

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top