[发明专利]一种集成芯片以及处理传感器数据的方法在审

专利信息
申请号: 202310116490.0 申请日: 2019-07-31
公开(公告)号: CN116167422A 公开(公告)日: 2023-05-26
发明(设计)人: 朱正超;刘宇;张琦 申请(专利权)人: 华为技术有限公司
主分类号: G06N3/063 分类号: G06N3/063;G06N3/0464
代理公司: 暂无信息 代理人: 暂无信息
地址: 518129 广东*** 国省代码: 广东;44
权利要求书: 查看更多 说明书: 查看更多
摘要: 本申请公开了人工智能领域中的一种集成芯片。本申请提供了一种集成芯片,其特征在于,包括:第一处理器,用于从第一外部传感器获取第一传感器数据,并且从第一传感器数据中提取第一目标数据,第一处理器为实时响应处理器;加速器,用于根据第一神经网络模型对第一目标数据进行识别以得到第一识别结果,第一识别结果用于确定与第一识别结果对应的目标操作。本申请提供了一种集成芯片以及处理传感器数据的方法,目的在于在实时响应外部传感器的情况下能够识别复杂场景,处理复杂任务。
搜索关键词: 一种 集成 芯片 以及 处理 传感器 数据 方法
【主权项】:
暂无信息
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华为技术有限公司,未经华为技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/202310116490.0/,转载请声明来源钻瓜专利网。

同类专利
  • 利用神经网络模型进行推理的方法和装置-202310887959.0
  • 杨伟光 - 腾讯科技(深圳)有限公司
  • 2023-07-18 - 2023-10-27 - G06N3/063
  • 本公开提供了一种利用神经网络模型进行推理的方法、装置、设备和计算机可读存储介质。该方法通过分析使用GPU的半精度浮点数格式来加速深度学习模型推理的技术导致用于语音识别的神经网络模型的精度下降的原因,发现了其主要是由于在神经网络模型的残差连接结构中激活张量的相加容易导致精度溢出的问题。该方法提出了混合精度推理和截断式精度推理两种可选方案,用于根据需要从中择一进行神经网络模型的推理,其中,混合精度推理对于神经网络模型中的不同模块采用不同的精度,而截断式精度推理通过分析发生精度溢出的残差连接结构,对张量相加模块的输出值进行截断处理,并调整其后所连接的层归一化模块中的运算顺序,从而解决了精度溢出问题。
  • 一种数据处理方法、电子设备及存储介质-202310945961.9
  • 高峰;王旭明;章小龙 - 安谋科技(中国)有限公司
  • 2023-07-28 - 2023-10-27 - G06N3/063
  • 本申请涉及人工智能技术领域,公开了一种数据处理方法、电子设备及存储介质,在数据处理方法中,通过设置将模型中每个处理层的输入数据集合划分为多个数据子集合的信息。在多核NPU进行数据处理时,可以读取存储器中的切分信息,并基于切分信息,采用多核NPU中的多个内核同时加载同一处理层的参数,并分别对同一处理层的不同数据子集合进行处理。如此,通过同时采用多核NPU中的多个内核进行数据处理,可以在保证模型切分前后输入输出数据相同的情况下,减少多核NPU的算力资源的浪费。
  • 一种数据处理方法、电子设备及存储介质-202310946146.4
  • 高峰 - 安谋科技(中国)有限公司
  • 2023-07-28 - 2023-10-27 - G06N3/063
  • 本申请涉及人工智能技术领域,公开了一种数据处理方法、电子设备及存储介质,在数据处理方法中,通过设置对模型中节点的参数和数据的切分数,例如,将各节点的参数和输入数据划分为多个数据集合,使得多核NPU在进行数据处理时,可以读取存储器中的切分数,并基于切分数,采用多核NPU中的多个内核同时加载同一节点对应的不同参数,并对节点的部分数据进行处理,并存储至相应内核的内部存储空间。如此,可以缓解单个内核的存储压力。
  • 一种数据处理方法、电子设备及存储介质-202310947785.2
  • 高峰;王旭明;袁文宇 - 安谋科技(中国)有限公司
  • 2023-07-28 - 2023-10-27 - G06N3/063
  • 本申请涉及人工智能技术领域,公开了一种数据处理方法、电子设备及存储介质,在该方法中,通过将模型中部分级联的节点划分为一个节点集合,并将该节点集合中所有节点对应的参数划分为一个参数集合,得到多个参数集合,和/或,将模型中任意一个节点的输入数据划分为多个数据集合,使得多核NPU进行数据处理时,可以采用多核NPU中的多个内核同时加载不同节点集合对应的不同参数集合,并分别对节点集合的输入数据进行处理,和/或,采用多核NPU中的多个内核同时加载同一节点对应的参数集合,并分别对节点的不同数据集合进行处理。如此,可以在保证模型切分前后输入输出数据相同的情况下,减少多核NPU的算力资源的浪费。
  • 面向手势识别的稀疏二值神经网络硬件加速器-202310836365.7
  • 韩军;杨振;张永亮;段旭阳 - 复旦大学
  • 2023-07-08 - 2023-10-27 - G06N3/063
  • 本发明属于集成电路技术领域,具体为一种面向手势识别的稀疏二值神经网络硬件加速器。本发明加速器包括:输入缓存模块,权重缓存模块,数据传输片上网络,32个卷积计算核,层次化累加树,后续处理单元,HDMI接口,UART接口,值预测与稀疏激活图压缩/解压缩模块。该加速器针对稀疏二值网络的手势识别进行加速,采用两级值预测的方式可以跳过二值网络中存在的重复计算,从而加速计算周期并降低功耗;采用通道级稀疏激活压缩和解压缩方法减少所需的数据存储量;本发明具有低功耗,低延时的特性,有效地降低硬件资源,提升硬件的能效比。
  • 面向手势识别的稀疏二值网络激活图像编解码硬件加速器-202310837180.8
  • 韩军;杨振;张永亮;段旭阳 - 复旦大学
  • 2023-07-08 - 2023-10-27 - G06N3/063
  • 本发明属于集成电路技术领域,具体为一种面向手势识别的稀疏二值网络激活图像编解码硬件加速器。本发明的硬件加速器包括:激活图像编码单元,编码图像存储单元,编码图像解码单元。该加速器针对稀疏二值网络的激活图像中存在大量相同向量进行压缩,这些相同的向量是由于二值化的手势边缘作为输入所产生的,压缩激活图像可以有效地降低片上存储容量,降低数据搬运功耗,进而降低芯片功耗;该加速器能够对压缩后的激活图进行译码,在译码过程中跳过重复的计算,从而减少计算次数,提升计算速度,有效地提升硬件性能。本发明具有低功耗,低延时的特性,有效地降低硬件资源,提升硬件的能效比。
  • 一种逐通道卷积的实现方法-202210320433.X
  • 刘子航;王荔枝 - 合肥君正科技有限公司
  • 2022-03-29 - 2023-10-27 - G06N3/063
  • 本发明提供一种逐通道卷积的实现方法,所述方法在遇到逐通道卷积时,通过对卷积核扩展来实现NNA卷积加速,扩展后的多通道卷积核,每个卷积核的通道数等于输入通道数,卷积核个数等于输入通道数;为了保证卷积核扩展后得到的卷积结果和逐通道卷积结果一致,需要计算扩展后除对应通道外其余通道元素的填充值。
  • 算子的加速方法、装置、设备、介质和程序产品-202310372493.0
  • 林灵锋 - 腾讯科技(深圳)有限公司
  • 2023-03-30 - 2023-10-27 - G06N3/063
  • 本申请公开了一种算子的加速方法、装置、设备、介质和程序产品,属于人工智能领域。该方法由数字信号处理器执行,数字信号处理器部署有神经网络模型,神经网络模型包括算子对应的算子层;该方法包括:将索引数据和输入数据输入算子层,索引数据包括与至少两个输出位置对应的索引值,输出位置用于指示输出数据的排列位置,索引值用于在输入数据中唯一索引数据;按照算子层的至少一个阶段的加速策略,基于各个输出位置对应的索引值,在输入数据中进行检索,得到各个输出位置对应的输出数据;按照不同输出位置所指示的排列位置,输出各个输出位置对应的输出数据。上述方案可以实现算子的加速运算,降低神经网络模型的推理耗时。
  • 一种面向嵌入式AI推理芯片的二维卷积拆分方法-202310938069.8
  • 冯建哲;叶俊;李世平;郑昱;韩文俊;郝明 - 江苏华创微系统有限公司;中国电子科技集团公司第十四研究所
  • 2023-07-28 - 2023-10-27 - G06N3/063
  • 本发明涉及一种面向嵌入式AI推理芯片的二维卷积拆分方法,包括:S1:判断当前二维卷积conv1输入是否超限,如不超限则按照正常卷积处理;反之,则进入S2;S2:若当前卷积上一层算子是卷积算子且满足拆分条件,则将上一层卷积算子conv0根据输出通道数out_ch0拆分成两个并行卷积conv3、conv4,conv0的输入input将分别通过conv3和conv4,然后转至S4;若不满足拆分条件或上一层不是卷积算子,则转至S3;S3:在当前卷积conv1前加入2个并行卷积conv5、conv6;S4:将当前卷积conv1按照输入通道数in_ch1拆分成两个并行卷积conv7、conv8,将上一步的输出分别通过conv7和conv8;S5:将conv7和conv8的输出进行矩阵加法,得出最终结果。本发明有效提高了芯片的通用性和灵活性。
  • 一种基于固定数据流的通用CNN加速器-202311012507.4
  • 邱志鹏;钟世达;潘志铭 - 深圳大学
  • 2023-08-11 - 2023-10-27 - G06N3/063
  • 本发明提供了一种基于行固定数据流的通用CNN加速器,包括AHB总线接口模块、控制寄存器模块、状态控制器模块、DMA数据搬运模块、片上BRAM缓存区模块、PE阵列模块、加法树模块和外部DDR存储模块。本发明的有益效果在于:可以根据网络参数通过控制寄存器模块来配置与神经网络结构匹配的最优参数,灵活调整阵列从而适应神经网络模型结构不同的场景,在一定资源的限制下获得较优的加速效果和计算速率。
  • 一种数据处理方法、电子设备及存储介质-202310945981.6
  • 高峰;陈柏韬;刘超 - 安谋科技(中国)有限公司
  • 2023-07-28 - 2023-10-27 - G06N3/063
  • 本申请涉及人工智能技术领域,公开了一种数据处理方法、电子设备及存储介质,在数据处理方法中,通过将模型中部分连接的处理层划分为一个处理层集合,并将该处理层集合中所有处理层对应的参数划分为一个参数集合,得到多个参数集合。在多核NPU进行数据处理时,可以读取存储器中的切分信息,并基于切分信息,采用多核NPU中的多个内核同时加载不同处理层集合对应的不同参数集合,并分别对处理层集合的输入数据进行处理。如此,通过同时采用多核NPU中的多个内核进行数据处理,可以在保证模型切分前后输入输出数据相同的情况下,减少多核NPU的算力资源的浪费。
  • 一种基于NNA的降低边界计算量的效率优化方法-202210322751.X
  • 李岩;王荔枝 - 合肥君正科技有限公司
  • 2022-03-29 - 2023-10-27 - G06N3/063
  • 本发明提供一种基于NNA的降低边界计算量的效率优化方法,所述方法在利用NNA进行卷积计算时,遇到卷积的边界时,如果MAC计算产生冗余计算从而产生真实输出点和非真实输出点,根据边界非真实输出点和输出FeatureMap的宽度占比高低来决定能否通过忽略边界判断来提升代码执行效率。在利用NNA进行卷积计算遇到的边界时,并不是总可以通过忽略边界的方式来提高代码执行效率,有时,忽略边界的计算反而会拉低代码的效率。本申请的目的是为表明不同的情况下,忽略卷积的边界计算带来的影响。
  • 人工智能芯片、加速器及运算方法-202210373966.4
  • 王佳东;牛昕宇;蔡权雄 - 深圳鲲云信息科技有限公司
  • 2022-04-11 - 2023-10-27 - G06N3/063
  • 本公开提供了一种人工智能芯片、加速器及运算方法,涉及人工智能技术领域,所述芯片包括:第一运算电路,被配置为执行第一运算以输出第一运算结果;第二运算电路,与所述第一运算电路并联,被配置为执行与所述第一运算相同的第二运算以输出第二运算结果;以及第三运算电路,被配置为在接收到所述第一运算结果和所述第二运算结果的情况下,对所述第一运算结果和所述第二运算结果分别执行与所述第一运算不同的第三运算,以分别输出第三运算结果。
  • 一种神经元电路-202110248465.9
  • 徐元;顾德恩;周鑫;高靖;蒋亚东 - 电子科技大学
  • 2021-03-05 - 2023-10-27 - G06N3/063
  • 本发明公开了一种神经元电路,包括兴奋生成电路、整形电路和波形转换电路。其中,兴奋生成电路用于接收输入激励信号,通过对输入激励信号的积累和决策,输出连续振荡信号或单个振荡信号。整形电路,用于对兴奋生成电路的振荡信号进行波形调整;波形转换电路,用于对整形电路的输出信号波形进行波形转换和信号放大。该神经元电路以电压激励作为输入信号,可输出类似于生物神经元典型兴奋波形特征的电压波形。同时,通过调整该电路中的单个电容元件、或单个电阻元件、或VO2相变电阻器的参数,可调控输出输出信号的幅值,这有利于将该神经元电路适配于各种电路之中。
  • 基于FPGA的神经网络加速方法和加速器-201910845286.6
  • 秦国轩;李炳剑 - 天津大学
  • 2019-09-08 - 2023-10-27 - G06N3/063
  • 本发明属于神经网络技术领域,为提出一种基于FPGA的卷积神经网络加速器,该加速器同时考虑了神经网络加速器性能和通用方面的需求,具有广阔的应用场景。为此,本发明采取的技术方案是,基于FPGA的神经网络加速器,包括卷积运算模块,池化模块,直接内存存取DMA模块,指令控制模块,地址控制模块,内部随机存取存储器RAM模块和指令RAM模块;其中所述的卷积运算模块,用于对卷积神经网路中的卷积层进行运算。本发明主要应用于神经网络芯片的设计制作。
  • 利用链接指令的神经网络处理-201880013993.2
  • J·弗沃斯;E·S·钟;D·C·伯格 - 微软技术许可有限责任公司
  • 2018-02-08 - 2023-10-27 - G06N3/063
  • 提供了用于神经网络处理的硬件和方法。提供了一种在包括流水线的硬件节点中的方法,该流水线具有:矩阵矢量单元(MVU);被连接以接收来自矩阵矢量单元的输入的第一多功能单元;被连接以接收来自第一多功能单元的输出的第二多功能单元;以及被连接以接收来自第二多功能单元的输出的第三多功能单元。该方法包括使用MVU执行第一类型指令,该第一类型指令只能由MVU执行以生成第一结果。该方法还包括执行第二类型指令,该第二类型指令只能由多功能单元之一执行,并且生成第二结果,并且在不将两个结果中的任何一个存储在全局寄存器中的情况下,将第二结果传递给第二多功能和第三多功能单元。
  • 一种“三明治”结构的加速卷积神经网络的存储器-201811356332.8
  • 王镇 - 南京博芯电子技术有限公司
  • 2018-11-15 - 2023-10-27 - G06N3/063
  • 本发明公开了一种“三明治”结构的加速卷积神经网络的存储器,属于专用集成电路设计、和人工智能技术领域。该设计加速人工智能运算,与传统的用于神经网络加速器相比,采用了数据(特征值和权重)存储‑计算一体化的“三明治”结构,通过减少访问存储器的次数来有效降低芯片整体的功耗,提高能量效率。同时,采用可配置脉宽调制的模拟计算单元阵列完成卷积神经网络(CNN)中卷积运算的乘累加操作,进一步降低芯片功耗和减少芯片面积。核心设计包括:卷积计算阵列“三明治”结构(Sandwich‑RAM)设计、基于脉宽调制的模拟计算单元(Pulse Width Modulation Unit,PWMU)、延时敏感的控制电压产生电路(Delay Sensitive Control Voltage Generator,DSCVG)、可配置的脉冲产生电路(Pulse Generator)和复制计算单元的脉宽量化电路(Pulse Quantizer by Replica Cell,PQRC)。
  • 基于流水线结构的计算引擎加速装置、方法、设备及介质-202310912140.5
  • 赵志远;徐鹏;陈刚;申荣铉;鲁华祥;边昳 - 中国科学院半导体研究所
  • 2023-07-24 - 2023-10-24 - G06N3/063
  • 本发明提供了一种基于流水线结构的计算引擎加速装置、方法、设备及介质,神经网络硬件加速技术领域,该装置包括:循环行缓冲器,包括:第一多路选择器,用于确定输入特征图的n个特征图像素点的存储位置,其中,n为大于0的正整数;m个随机存取存储器,用于根据存储位置缓存n个特征图像素点,其中,m为大于0的正整数;第二多路选择器,用于对写入m个随机存取存储器的特征图像素点进行输出;流驱动填充器,用于根据特征图像素点的位置和神经网络中卷积层的边界参数,对第二多路选择器输出的特征图像素点进行边界填充;计算单元阵列,用于对填充后的特征图像素点进行卷积计算;权重存储器,用于缓存神经网络的权重数据。
  • 基于反卷积映射的Depthwise卷积计算装置及卷积计算方法-202310761653.0
  • 朱樟明;张岳琦;冯立琛;李栋;赖睿 - 西安电子科技大学
  • 2023-06-26 - 2023-10-24 - G06N3/063
  • 本发明公开了一种基于反卷积映射的Depthwise卷积计算装置,包括数据获取单元、数据路由器、控制单元以及并行且同构的多个Depthwise卷积计算单元,其中,数据获取单元用于获取输入特征图数据、卷积核权值数据及通道偏置数据;数据路由器用于将数据获取单元缓存的输入特征图数据发送至Depthwise卷积计算单元中;控制单元用于在计算开始前对每个Depthwise卷积计算单元进行参数配置,在计算过程中控制整个装置的Depthwise卷积计算流程;每个Depthwise卷积计算单元用于进行基于反卷积映射的Depthwise卷积计算,获得对应的目标特征图数据。本发明在计算过程中能够减少对输入特征图数据的重复读取,避免由于存储器存取与数据加载造成的额外计算延迟与功耗。
  • 一种可参数化生成并动态可配置的神经网络硬件加速结构-202210345931.X
  • 王中风;杜思润;林军 - 南京大学
  • 2022-03-31 - 2023-10-24 - G06N3/063
  • 本申请提供一种可参数化生成并动态可配置的神经网络硬件加速结构,包括控制分发模块从控制核接收控制信息,从片外存储读取指令数据至多个指令队列;加载存储模块从片外存储加载计算输入至片上存储模块,将计算结果传输至片外存储;片上存储模块负责暂存数据;张量计算模块从片上存储模块读取数据并完成张量计算,将计算结果存储至片上存储模块;矢量计算模块从片上存储模块读取数据并完成矢量计算,将计算结果存储至片上存储模块。该硬件加速结构通过参数化生成匹配不同的硬件约束,对硬件资源合理分配,通过动态配置支持不同的神经网络计算任务,优化计算与数据访存的配合,实现对于神经网络计算的高效加速,并支持多种计算功能。
  • 适用于多精度神经网络的精度无损存算一体装置及方法-202210227427.X
  • 周浩翔;刘定邦;刘俊;吴秋平;韩宇亮;罗少波;毛伟;余浩 - 南方科技大学
  • 2022-03-08 - 2023-10-24 - G06N3/063
  • 本发明公开了适用于多精度神经网络的精度无损存算一体装置及方法,所述方法包括:获取多精度神经网络的输入数据,并将所述输入数据按位拆分后进行数模转换,得到若干模拟信号;基于选择器和处理元件,将若干所述模拟信号与预设的权重采用时空复用的方式进行乘累加运算和多精度的重组运算,得到多精度神经网络的输出数据。本发明实施例通过多精度神经网络的输入数据与预设的权重采用时空复用的方式进行乘累加运算和多精度的重组运算,使得多精度神经网络的存算一体支持混合精度的神经网络计算,避免精度损失从而提升计算准确性,并且对比传统片上系统架构可以大幅度地提高计算能效。
  • 用于确定存储器大小的方法和设备-201911236646.9
  • L·福里奥特;P·德马雅 - 意法半导体(鲁塞)公司
  • 2019-12-05 - 2023-10-24 - G06N3/063
  • 本公开涉及用于确定存储器大小的方法和设备。一种方法可以用于确定存储器中的待分配的全局存储器区域的总存储器大小,该存储器旨在存储来自神经网络的每个层的输入数据和输出数据。针对每个层确定旨在存储来自层的输入数据和输出数据的基本存储器区域的基本存储器大小。基本存储器大小在用于来自层的输入数据或输出数据的存储器大小和与用于来自层的输入数据的存储器大小和用于来自层的输出数据的存储器大小的总和相等的大小之间的范围内。基于与层相关联的基本存储器大小确定总存储器大小。全局存储器区域包含全部基本存储器区域。
  • 神经网络加速方法、神经网络加速器、芯片及电子设备-202310666477.2
  • 陈科;杨晓风 - 深圳市九天睿芯科技有限公司
  • 2023-06-07 - 2023-10-24 - G06N3/063
  • 本申请涉及神经网络加速方法、加速器、芯片及电子设备,所述方法包括:响应于数据接收指令,接收二进制向量形式的待处理数据;响应于神经网络运算指令,对所述的二进制向量基于神经网络算法进行运算处理;所述的对所述的二进制向量基于神经网络算法进行运算处理,包括,对所述的二进制向量进行点积运算,包括:对m元素n bit的二进制向量中的所有元素进行按位提取,获得n个m元素的单bit向量;将所述的n个m元素的单bit向量分别与m元素x bit向量相乘;将所述向量相乘的结果按位进行加法运算,然后进行移位操作;最后将所述移位操作的结果送入二进制累加器进行累加获得处理结果。本申请可以提高神经网络的运算效率并降低功耗。
  • 数据处理方法、装置、电子设备及计算机可读存储介质-202310937985.X
  • 王旭明 - 安谋科技(中国)有限公司
  • 2023-07-27 - 2023-10-20 - G06N3/063
  • 本申请实施例提供了一种数据处理方法、装置、电子设备及计算机可读存储介质,涉及数据处理技术领域。该方法包括:若确定神经网络模型包括候选算子集,候选算子集依次包括一个第一卷积算子、一个重塑算子和一个转置算子,且候选算子集满足预设条件,则确定候选算子集对应的目标算子集;目标算子集中依次包括一个第二卷积算子和一个深度至广度算子;第一卷积算子的输出张量的最后一维度属性表征块大小,第二卷积算子的输出张量的最后一维度属性表征输出通道数;将神经网络模型中的候选算子集替换为目标算子集。本申请实施例以第二卷积算子的输出张量的最后一维度属性所表征的输出通道数为基本单位进行数据搬运,提高了数据搬运的连续性和搬运效率。
  • 一种适用于存算一体阵列的数据流通路装置及其方法-202310744336.8
  • 潘红兵;林雨生;傅高鸣;王宇宣;彭成磊 - 南京大学
  • 2023-06-21 - 2023-10-20 - G06N3/063
  • 本发明提供了一种适用于存算一体阵列的数据流通路装置及其方法。该装置包括:全局缓冲区,用于缓存推理过程的中间结果,并将已就绪的下一步骤数据输送到等待区寄存器组中;等待区寄存器组,用于存储和驱动要进入存算一体阵列进行计算的输入数据;存算一体阵列,用于根据预先映射的权重信息实现神经网络推理过程的卷积操作和全连接层计算,并将所得到的计算中间结果传输到单指令多数据流模块;单指令多数据流模块,用于实现神经网络推理过程中的池化操作、激活函数的功能,并将结果传输到所述全局缓冲区。本发明的数据流通路装置和方法可以简化数据的存储和调度,提高电路模块的复用性。
  • 计算系统神经网络优化方法及装置-202310898892.0
  • 请求不公布姓名 - 上海壁仞智能科技有限公司
  • 2023-07-20 - 2023-10-20 - G06N3/063
  • 本发明实施例提供一种计算系统神经网络优化方法及装置,该方法包括:以批大小为1对整网进行预编译处理,获取算子的计算数据量,根据计算数据量占用第一存储单元的存储空间的比例确定算子对应的档位区间;根据档位区间将各个算子划分入多个子网;根据各个子网对应的档位区间确定各个子网的子网批大小,根据各个子网的子网批大小确定优化后神经网络的整网批大小,根据整网批大小和子网批大小确定各个子网的重复运行次数;按照各个子网的子网批大小和重复运行次数以及子网间的数据连接关系,将各个子网前后连接组成优化后神经网络。本发明实施例同时满足了高速内存的空间限制和计算单元的充分利用的要求,在实现高速存储的前提下提高了计算速度。
  • 一种集成芯片以及处理传感器数据的方法-202310108138.2
  • 朱正超;刘宇;张琦 - 华为技术有限公司
  • 2019-07-31 - 2023-10-20 - G06N3/063
  • 本申请公开了人工智能领域中的一种集成芯片。本申请提供了一种集成芯片,其特征在于,包括:第一处理器,用于从第一外部传感器获取第一传感器数据,并且从第一传感器数据中提取第一目标数据,第一处理器为实时响应处理器;加速器,用于根据第一神经网络模型对第一目标数据进行识别以得到第一识别结果,第一识别结果用于确定与第一识别结果对应的目标操作。本申请提供了一种集成芯片以及处理传感器数据的方法,目的在于在实时响应外部传感器的情况下能够识别复杂场景,处理复杂任务。
  • 一种计算装置-202210484815.6
  • 朱家国 - 苏州宽温电子科技有限公司
  • 2022-05-06 - 2023-10-20 - G06N3/063
  • 本发明提供一种计算装置。该计算装置包括处理器和SRAM模块。SRAM模块包括SRAM阵列、加法器以及卷积运算输入电路。在卷积运算模式,SRAM阵列的第一部分存储权重矩阵,SRAM阵列的第二部分存储偏置项。在卷积运算时钟的多个周期,输入数据逐位输入SRAM模块的第一部分,偏置项的激活数据逐位输入SRAM模块的第二部分。在每个周期,SRAM阵列用于获得输入数据的1位和对应权重数据的乘积。加法器用于对所述多个周期获得的乘积进行移位加法运算,偏置项的激活数据使SRAM阵列中存储的偏置项在所述多个周期中的最后一个周期被输入加法器。卷积层计算的权重矩阵和偏置项都存储在SRAM阵列,使得偏置项运算也在SRAM模块进行,提高了神经网络算法计算效率。
专利分类
×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top