[发明专利]一种芯片管理系统、方法、设备及存储介质有效

专利信息
申请号: 202310427390.X 申请日: 2023-04-18
公开(公告)号: CN116167437B 公开(公告)日: 2023-07-11
发明(设计)人: 王宏升;陈光 申请(专利权)人: 之江实验室
主分类号: G06N3/10 分类号: G06N3/10;G06F8/30;G06F8/71
代理公司: 北京博思佳知识产权代理有限公司 11415 代理人: 邓超
地址: 311121 浙江省杭*** 国省代码: 浙江;33
权利要求书: 查看更多 说明书: 查看更多
摘要: 本说明书公开了一种芯片管理系统、方法、设备及存储介质,可以通过对不同芯片的芯片管理程序模板进行抽象,得到芯片管理程序统一模板,从而可以在用户需要添加新的芯片的时,仅需要使用户根据芯片管理程序统一模板设计新的芯片对应的芯片管理程序模板即可,并且可以通过注册中心模块根据各芯片管理程序模板生成各芯片对应的芯片管理程序,对各芯片进行管理,从而可以避免对深度学习框架的程序代码进行大量的重写的情况发生。
搜索关键词: 一种 芯片 管理 系统 方法 设备 存储 介质
【主权项】:
暂无信息
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于之江实验室,未经之江实验室许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/202310427390.X/,转载请声明来源钻瓜专利网。

同类专利
  • 调度神经网络处理-201880019345.8
  • 禹同爀 - 谷歌有限责任公司
  • 2018-01-17 - 2023-10-10 - G06N3/10
  • 一种计算机实现的方法包括接收要在硬件电路上使用神经网络处理的一批神经网络输入。神经网络具有以有向图布置的多个层并且每个层具有相应的参数集合。所述方法包括确定神经网络层到超层序列的划分。每个超层是有向图的包括一个或多个层的划分。所述方法包括使用硬件电路处理该批输入,其包括:针对序列中的每个超层:i)将超层中的层的相应的参数集合加载到硬件电路的存储器中;以及ii)针对该批中的每个输入,使用硬件电路的存储器中的参数通过超层中的层中的每个层处理输入以生成针对输入的超层输出。
  • 构建神经网络模型的方法、装置、计算机设备和存储介质-201911292945.4
  • 刘伟良 - 杭州海康威视数字技术股份有限公司
  • 2019-12-16 - 2023-09-19 - G06N3/10
  • 本公开是关于一种构建神经网络模型的方法、装置、计算机设备和存储介质,属于机器学习模块技术领域。所述方法包括:建立神经网络模型对应的当前待确定的网络架构;基于当前待确定的网络架构,生成神经网络模型对应的中间表示信息;基于中间表示信息和预设的代码优化算法,生成优化运行代码;控制执行优化运行代码,获取优化运行代码的整体运行时长,作为当前待确定的网络架构对应的整体运行时长;如果当前待确定的网络架构对应的整体运行时长能够满足预设的网络架构搜索条件,则将当前待确定的网络架构确定为输出结果。采用本公开,可以提高构建网络架构的效率。
  • 一种解释脉冲神经网络模型运行的可视化交互方法-202310522580.X
  • 邓水光;孙庆姣;李沁心;章明;杨国青;李莹;潘纲 - 浙江大学;之江实验室
  • 2023-05-10 - 2023-09-08 - G06N3/10
  • 本发明公开了一种解释脉冲神经网络模型运行的可视化交互方法,在编辑模式下,包括以下步骤:设计脉冲神经网络模型的网络结构;修改脉冲神经网络模型的神经元连接权重值;设置脉冲神经网络模型的每层阈值电压;随机生成脉冲神经网络模型的输入脉冲序列;基于设置结果运行脉冲神经网络模型并进行动态可视化。在模型文件导入模式下,包括以下步骤:输入脉冲神经网络模型文件并进行模型结构解析;运行解析的脉冲神经网络模型并进行动态可视化。该方法可以实现对脉冲神经网络模型运行过程的可视化解释。
  • 算子的自动生成方法、装置、设备及介质-202310744779.7
  • 翟鑫奕;陈禹东;谭磊;田野 - 上海燧原科技有限公司
  • 2023-06-25 - 2023-09-08 - G06N3/10
  • 本发明公开了一种算子的自动生成方法、装置、设备及介质,包括:根据用户所输入的算法元语通过前端编译器进行编译获取初始前向数据流图;对初始前向数据流图中的各节点按照指定规则进行优化,获取优化前向数据流图;获取与优化前向数据流图所匹配的芯片指令集;根据芯片指令集通过后端编译器进行编译生成目标算法。通过前端编译器根据用户所输入的算法元语进行编译获取的初始前向数据流图后,对所获取的初始前向数据流图进行优化,并获取与优化后的前向数据流图所对应的芯片指令集,并通过后端编译器根据芯片指令集自动生成目标算法,从而在无需用户参数的情况下就可以基于DMA的多级缓存处理器设备自动生成算法。
  • 一种基于深度学习的燃料电池箱体尺寸与质量预测方法-202310667491.4
  • 郑明刚;罗兴;张智虎;曲诚;刘乐瑶 - 山东建筑大学
  • 2023-06-07 - 2023-08-25 - G06N3/10
  • 本发明提供了一种基于深度学习的燃料电池箱体尺寸与质量预测方法,属于燃料电池技术领域。该方法首先准备一个包含尺寸与质量信息的数据集,把80%作为训练集,其余20%作为验证集,另外再构建一个包含尺寸与质量信息的数据集作为测试集。然后采用Keras构建深度学习神经网络模型,包括输入层、隐藏层和输出层,并进行正则化和防止过拟合的处理。接着,利用训练集和验证集对神经网络模型进行训练和验证,最后用测试集测试模型的性能,并保存模型。最后,使用该模型在一批箱体中找到尺寸与质量最佳的燃料电池箱体。该方法自动化、高效,并且能显著减小箱体尺寸和质量,提高空间利用率和负载能力。
  • 一种基于并行化的类脑仿真编译的加速方法-202011492285.7
  • 黄凯;王弘远;陈刚 - 中山大学
  • 2020-12-16 - 2023-08-25 - G06N3/10
  • 本发明涉及神经网络仿真技术领域,具体涉及一种基于并行化的类脑仿真编译的加速方法,包括以下步骤:S1、构建神经网络时,创建若干个族群,每个族群包含上百万个神经元;S2、按照神经元族群并行构建神经元数组;S3、按照族群之间的连接并行构建突触数组以及神经元到突触数组的映射关系。本发明的基于并行化的类脑仿真编译的加速方法,通过并行算法加速仿真框架的速度,大大减少了用户的等待时间。
  • 面向FPGA的粗粒度FIFO硬件通道自动拟合方法-202310903805.6
  • 赵康;王亚军;崔军;侯人靖 - 北京邮电大学
  • 2023-07-24 - 2023-08-22 - G06N3/10
  • 本发明公开了一种面向FPGA的粗粒度FIFO硬件通道自动拟合方法,涉及FPGA技术领域,该方法包括:获取数据流目标区域内的子函数调用及对应的调用指令序列;判断任一相邻子函数调用指令是否具有相同的数组参数变量,若是将相邻子函数调用指令所对应的函数体内部的所有子函数调用实现函数内嵌,并扫描实现函数内嵌的相邻子函数内每条与数组参数变量相关的读/写指令,若相邻子函数中的前一个子函数内只有写指令发生在数组参数变量上且相邻子函数中的后一个子函数内只有读指令发生在数组参数变量上,则完成FIFO硬件通道的拟合。本发明能够帮助用户自动分析函数间的数据传输关系,自动判定并完成FIFO硬件通道的拟合。
  • 脑仿真平台及其算子注册方法、设备、存储介质-202310216994.X
  • 吴思;张天秋;王超名 - 北京大学
  • 2023-03-07 - 2023-08-15 - G06N3/10
  • 本发明涉及大脑仿真和类脑计算领域,提供一种脑仿真平台及其算子注册方法、设备、存储介质,所述脑仿真平台包括:用户模块,用于供用户基于高级编程语言编写自定义算子,以及所述自定义算子的描述信息;代码转换模块,用于对所述自定义算子进行即时编译转换和封装处理,将所述自定义算子封装为脑仿真平台底层编程语言的回调函数;算子注册模块,用于将所述回调函数和所述描述信息注册为所述脑仿真平台框架内部的原语。通过代码转换模块和算子注册模块,实现对用户采用高级编程语言编写的算子的自动注册,无需用户学习脑仿真平台框架内部的注册细节和编译流程,减少了用户在算子注册和编译过程中消耗的时间,降低了用户注册算子的学习成本。
  • 神经网络模型的编译方法、推理方法、装置、设备和介质-202310597929.6
  • 张祎男;李德林 - 北京地平线信息技术有限公司
  • 2023-05-24 - 2023-08-04 - G06N3/10
  • 本公开实施例公开了一种神经网络模型的编译方法、推理方法、装置、设备和介质,其中,编译方法包括:获取待编译神经网络模型对应的第一模型;将第一模型中包含预设运算的至少一个网络层中的任一网络层作为目标网络层,将目标网络层的预设运算转换为神经网络处理器所支持的卷积运算,获得转换后的第一网络层,预设运算为包括乘累加运算的运算;基于转换后的第一网络层获得第一模型对应的优化模型;根据优化模型,生成待编译神经网络模型对应的神经网络处理器可执行的目标指令序列。本公开实施例可以通过卷积运算实现包括乘累加运算的预设运算,便于通过神经网络处理器对模型的上述预设运算进行加速,大大提高模型推理速度。
  • 模型定制系统和方法-202110732815.9
  • 王小坤;雍高鹏;李殿亚;王洋;孙叔琦;李婷婷;常月 - 北京百度网讯科技有限公司
  • 2021-06-30 - 2023-07-25 - G06N3/10
  • 本公开提供一种模型定制系统和方法,涉及人工智能领域,尤其涉及自然语言处理及深度学习等领域。具体实现方案为:模型定制系统包括数据库、数据交互中心、训练中心和模型存储中心;其中,数据库包括二进制日志,用于记录数据库表结构变更以及表数据修改;数据交互中心用于响应于目标对象的定制请求,获取目标对象的定制数据,并将定制数据发送至数据库进行存储;训练中心用于获取数据库的二进制日志,并根据二进制日志感知数据交互中心的数据变化信息,根据数据变化信息生成训练数据,以及根据训练数据生成目标对象的定制模型;模型存储中心用于接收训练中心发送的目标对象的定制模型,并采用分布式存储方法对目标对象的定制模型进行存储。
  • 一种面向脉冲中继的高性能脉冲发送仿真方法和装置-202310308211.0
  • 章明;孙世春;金孝飞;何煜坤;马德;潘纲 - 之江实验室;浙江大学
  • 2023-03-28 - 2023-07-21 - G06N3/10
  • 本发明公开了一种面向脉冲中继的高性能脉冲发送仿真方法和装置,该方法包括配置阶段和运行阶段;配置阶段为利用脉冲目标搜索算法预先为每个神经元计算其对应的各个脉冲目标,即应该接收该神经元所发放脉冲的下游树突或神经元,从而建立每个神经元与其对应的各个脉冲目标的直接联系;运行阶段为利用配置阶段计算好的各个神经元与其对应脉冲目标的直接联系,将每个神经元所发放的各个脉冲直接发送到对应的各个脉冲目标;从而消除运行阶段对中继路径的重复计算,能够减少脉冲发送仿真的计算成本并缩短类脑硬件仿真时间。
  • 面向边缘设备的深度学习编程框架评估优化方法及系统-202310249244.2
  • 张星洲;姜晓阳;彭晓晖 - 中国科学院计算技术研究所
  • 2023-03-15 - 2023-07-18 - G06N3/10
  • 本发明提出一种面向边缘设备的深度学习编程框架评估优化方法,包括:解析深度学习任务的配置文件,获得深度学习任务的程序控制信息;依据该程序控制信息,依次获取边缘设备执行该深度学习任务的多个实际运行数据;该实际运行数据包括该边缘设备运行该深度学习任务时的GPU实际峰值浮点运算数据、GPU实际各层级内存峰值带宽数据、浮点运算数量、GPU内核活动时间和GPU数据移动量;以该实际运行数据绘制该边缘设备运行该深度学习任务的运行时分层屋顶线图;根据该运行时分层屋顶线图,确定对该深度学习任务的优化方向及优化顺序。本发明还提出一种面向边缘设备的深度学习编程框架评估优化系统,以及一种用于深度学习编程框架评估优化的数据处理装置。
  • 配置方法、装置、系统、电子设备以及存储介质-202010613892.8
  • 刘杰;陈晓宇;吴拓邦;施恩;谢永康 - 北京百度网讯科技有限公司
  • 2020-06-30 - 2023-07-14 - G06N3/10
  • 本申请实施例公开了配置方法、装置、系统、电子设备和存储介质,涉及人工智能、深度学习技术领域。具体实现方案为:获取目标模型和目标模型的目标模型配置信息,其中,目标模型配置信息包括硬件列表;根据硬件列表中的多个硬件,对目标模型的进行多条计算路径搜索;其中,计算路径包括基于目标模型拆分的多个计算任务以及运行各个计算任务的硬件;根据多条计算路径的计算速度,确定目标模型的目标计算路径,以基于目标计算路径得到目标优化模型。本申请实施例大幅降低用户部署模型的时间成本和使用门槛。
  • 基于深度学习框架实现算子的方法、装置及相关设备-202111589577.7
  • 请求不公布姓名 - 上海寒武纪信息科技有限公司
  • 2021-12-23 - 2023-07-11 - G06N3/10
  • 本申请实施例提供一种基于深度学习框架实现算子的方法、装置及相关设备,该方法包括:通过算子接口接收用户向深度学习框架输入的自定义算子,自定义算子包含一个或多个函数操作;扫描所述计算图中的多个原生算子,以得到目标原生算子,其中,所述目标原生算子与所述自定义算子对应;将深度学习框架中的计算图中的目标原生算子替换为自定义算子;加载包含自定义算子的计算图进行训练。通过本申请实施例可以通过算子接口实现用户自定义算子,不需要对深度学习框架的原生网络进行侵入性修改,便于用户自定义行为的开放性。
  • AI训练测试网站架构系统及AI训练测试方法-202110798254.2
  • 李龙龙;萧文远;谈加西;陈朋芳 - 博流智能科技(南京)有限公司
  • 2021-07-15 - 2023-07-11 - G06N3/10
  • 本发明揭示了一种AI训练测试网站架构系统及AI训练测试方法,所述AI训练测试网站架构系统包括前端及后端;所述前端包含模型网络结构展示模块、AI平台转通用平台模块、算法优化器、网络结构和算法验证模块;所述后端包含文件接收模块、文件处理模块、模型网络结构生成模块、AI平台模型转通用平台模型模块、算法优化模块、模型及算法运行验证模块。本发明提出的AI训练测试网站架构系统及AI训练测试方法,可提高生产效率,节约成本。
  • 一种芯片管理系统、方法、设备及存储介质-202310427390.X
  • 王宏升;陈光 - 之江实验室
  • 2023-04-18 - 2023-07-11 - G06N3/10
  • 本说明书公开了一种芯片管理系统、方法、设备及存储介质,可以通过对不同芯片的芯片管理程序模板进行抽象,得到芯片管理程序统一模板,从而可以在用户需要添加新的芯片的时,仅需要使用户根据芯片管理程序统一模板设计新的芯片对应的芯片管理程序模板即可,并且可以通过注册中心模块根据各芯片管理程序模板生成各芯片对应的芯片管理程序,对各芯片进行管理,从而可以避免对深度学习框架的程序代码进行大量的重写的情况发生。
  • 一种用于深度学习模型训练的框架系统构建方法-202310345188.2
  • 曹春;徐经纬;李子铭 - 南京大学
  • 2023-04-03 - 2023-07-07 - G06N3/10
  • 本发明公开一种用于深度学习模型训练的框架系统构建方法,将用户定义的模型计算图编译成流式计算框架的算子执行图;模型计算图中的每个节点对应算子执行图中的一组算子,通过对节点部署多个算子副本,以实现数据并行化训练,通过多个算子的前后连接,实现模型并行化训练;同时使用参数服务器的架构,将模型的参数分散于参数服务器的多个实例里面;然后系统接收来自IoT设备的数据流,进行处理产生样本,再不断地进行数据的分发;通过基于逻辑时间戳的模型参数同步方法与参数服务器算子进行参数更新。对比已有的大数据深度学习模型训练框架,本发明利用异步训练的方式,可以显著提高硬件的资源利用率、系统的吞吐率。
  • 基于MLIR的FPGA神经网络模型部署方法-202310107219.0
  • 请求不公布姓名 - 深存科技(无锡)有限公司
  • 2023-02-13 - 2023-06-23 - G06N3/10
  • 本申请公开基于MLIR的FPGA神经网络模型部署方法,涉及FPGA领域,提取待部署到FPGA平台的原始神经网络模型;将原始神经网络模型通过onnx工具转换成开源格式的onnx模型,然后通过开源的onnx‑mlir工具将onnx模型转换成mlir中间表示文件;通过MLIR工具将转换得到的mlir中间表示文件进行转换和编译,获得用于在FPGA kernel上运行的第一程序文件;第一程序文件为高级语言,用于操作FPGA芯片;编写外部交互程序,将交互程序和第一程序文件组合编译和链接,部署到FPGA芯片中。该方案避免编写低效的RTL相关模型代码,高效地将深度神经网络模型运行在FPGA上,提高部署效率。
  • 一种基于深度学习算法的分布式计算平台及其应用-202210313990.9
  • 尹智帅;韦清泉;肖轶戈;李康;巴元新;邝远浩 - 武汉理工大学
  • 2022-03-28 - 2023-06-16 - G06N3/10
  • 本发明公开了一种基于深度学习算法的分布式计算平台,由一个主计算节点和多个从计算节点组成,并采用了基于MPI协议设计的深度学习算法针对主计算节点和从计算节点分为主算法和从算法两个部分,目标提取任务被分割为目标提取和结果融合两个部分,目标提取这一任务主要由从算法实现,主算法的输入为所有从算法的输出结果,融合得到最终的目标提取结果。本发明还提供了基于深度学习算法的分布式计算平台的应用,是用于车辆的自动驾驶。本发明能够根据不同的驾驶环境匹配不同的计算节点,在复杂环境下可以通过采用主计算节点和多个从计算节点的方式提高算力,同时也不会产生过大的计算机占据车内空间。
  • 一种针对分布式类脑仿真的神经元编码方法及系统-202310172752.5
  • 贾海波;蔡炎松;梁华驹;王俊宜;杜帅帅;陆洋;朱苗苗;喻富豪;董家欢 - 中国电子科技南湖研究院
  • 2023-02-28 - 2023-06-16 - G06N3/10
  • 本发明公开了一种针对分布式类脑仿真的神经元编码方法及系统,方法包括:接收待创建的神经元簇的神经元数目以及所在的进程号;根据输入的神经元数目计算本次创建神经元簇的局部神经元ID范围;基于局部神经元ID范围,本进程中每个线程并行初始化局部神经元ID;每个线程循环创建本线程负责的神经元,基于初始化的局部神经元ID得到本线程内每个神经元的局部神经元ID,并将局部神经元ID与进程号联合编码得到每个神经元的全局神经元ID,完成神经元簇的创建编码。本发明通过指定创建神经元簇的所在进程,减少跨计算节点或跨进程的远程通信连接,加快仿真速度。
  • 基于虚拟突触思想的大规模视觉皮层神经网络仿真方法-202310250311.2
  • 韩芳;杨豪;王直杰;王青云 - 东华大学
  • 2023-03-16 - 2023-06-06 - G06N3/10
  • 基于虚拟突触思想的大规模视觉皮层神经网络仿真方法,涉及类脑计算、神经网络建模与仿真。使用“虚拟突触”的突触电导计算策略;降低各个状态变量计算过程中的独立性,借助CUDA运算平台对神经元参数更新进行多线程同步运行。“虚拟突触”的突触电导计算策略,“虚拟突触”是突触后神经元接收突触输入的整合,每一个突触后神经元拥有n条“虚拟突触”。本发明在对大规模神经网络进行仿真运算时,减少庞大的突触电流计算过程,降低各个状态变量计算过程中的独立性,以节省内存占用并降低时间消耗。
  • 基于FPGA的Spiking前馈网络海马功能仿真系统-201910442700.9
  • 王江;郝静怡;杨双鸣;郝新宇;伊国胜 - 天津大学
  • 2019-05-25 - 2023-06-02 - G06N3/10
  • 本发明提供一种基于FPGA的Spiking前馈网络海马功能仿真系统,其特征是:该仿真系统包括FPGA开发板、上位机,FPGA开发板包括前馈神经元网络、NiosII软核控制器以及USB接口模块,还包括通过VHDL语言编程下载编译并在FPGA开发板中运行的模拟海马神经元功能的三层前馈网络,初值信号发出模块、网络的第一层感受层、第二层海马功能层、第三层动作输出层、LIF神经元流水线模型、判断控制模块、STDP即突触控制更新矩阵;各层前馈网络中的LIF神经元流水线模型、判断控制模块与STDP突触更新矩阵均采用VHDL语言编程实现;判断控制模块负责对每层信号输出的控制,其发出的控制信号分别通过感受层信号传输通路、海马功能层信号传输通路以及动作输出层信号传输通路传递给每层神经元。
  • 面向深度学习的粗粒度可重构阵列仿真器系统和计算方法-202310103775.0
  • 白雪飞;赵高飞;陈松;康一 - 中国科学技术大学
  • 2023-01-28 - 2023-05-30 - G06N3/10
  • 本公开提供了一种面向深度学习的粗粒度可重构阵列仿真器系统和计算方法,可以应用于深度学习技术领域以及可重构阵列技术领域。该面向深度学习的粗粒度可重构阵列仿真器系统包括:存储模块,用于存储初始图数据;数据调度模块,用于存储包括多个指令的指令集,以及使存储模块根据指令集将初始图数据传输至可重构阵列中;可重构阵列,用于接收初始图数据,以及根据深度学习模型的网络层的计算类型,调用图形处理器对初始图数据进行并行计算得到输出结果。
  • 用于配置神经网络的神经网络模型、方法及建模环境-202180061107.5
  • 奥莱西·库普里亚诺夫;玛利亚·邦纳 - 西门子股份公司
  • 2021-07-06 - 2023-05-16 - G06N3/10
  • 公开了一种用于配置神经网络的神经网络模型、方法和建模环境。配置在工业环境中使用的至少一个神经网络(120)的方法,其中工业环境(112,114,116)包括具有一个或多个硬件和软件组件的至少一个工业系统,该方法包括接收神经网络,其中基于与工业系统的系统架构相关联的至少一个经训练的数据集来训练神经网络(120);基于该训练来确定该神经网络(120)的经修改的参数;基于经修改的参数与神经网络(120)的预定义参数的比较来定义用于经训练的神经网络(172)的可变性指数;以及基于该可变性指数来配置该神经网络(120,172)。
  • 确定节点表示的方法、装置及电子设备-202310073214.0
  • 李玉;田原;常毅 - 吉林大学
  • 2023-01-19 - 2023-05-02 - G06N3/10
  • 本申请提供确定节点表示的方法、装置及电子设备。研究有符号网络,其目的是学习有符号网络中的节点表示。在有符号网络中,正链接子网络的节点间更强调相似性,而负链接子网络的节点间更强调差异性。因此,将有符号网络划分为正链接子网络和负链接子网络。由于低频信息和高频信息保持节点间的相似性和差异性;进而为正链接子网络和负链接子网络设计低频图信号滤波器和高频图信号滤波器,分别对应提取正链接子网络和负链接子网络的低频信息和高频信息,以确定节点表示;以对两个节点间的链接关系进行预测。该方案中利用低频信息和高频信息来描述有符号网络中的节点表示,能充分地对有符号网络进行建模。
  • 算子处理方法及算子处理装置、电子设备和可读存储介质-202211111919.9
  • 请求不公布姓名 - 上海壁仞智能科技有限公司
  • 2022-09-13 - 2023-04-25 - G06N3/10
  • 一种算子处理方法、算子处理装置、电子设备和计算机可读存储介质。该算子处理方法包括:获取计算图,该计算图包含M个算子节点以及M个算子节点之间的连接关系,每个算子节点对应至少一个算子;对计算图进行拆分,得到N个子图,每个子图包含至少一个算子节点,N个子图包括第一子图,第一子图对应K个第一融合算子,K个第一融合算子为将第一子图包括的多个算子节点对应的多个算子进行融合而得到的算子;确定N个子图分别对应的算子代码,N个子图分别对应的算子代码包括第一子图对应的K个第一融合算子的算子代码;基于N个子图分别对应的算子代码,得到用于执行计算过程的代码。该方法可以适用于各种场景,适用范围广,泛化能力强。
  • 一种机器学习操作系统内核的自动化编译方法-202211742639.8
  • 张凯;陈浩 - 湖南大学
  • 2022-12-23 - 2023-04-18 - G06N3/10
  • 本发明涉及计算机操作系统及机器学习模型编译器的技术领域,具体涉及一种基于机器学习模型的操作系统内核自动化编译方法。本发明的方法包括:该发明通过Keras训练机器学习模型,并将训练好的模型保存为可靠的h5文件;根据内核的特性,提供可支持机器学习模型运算的数据结构和函数库;通过使用Keras中特定的方法,可以提取到训练的模型中每一层的权重以及相关的参数;通过使用Keras中特定的方法,可以提取到训练的模型中每一层网络配置信息;根据对应的权重参数、模型调用方法和内核函数库,自动生成内核代码。其流程如图1所示。该方法能够实现对操作系统内核机器学习模型的自动化编译,从而能够提高模型丰富度并降低手工程度。
专利分类
×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top