专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果8578803个,建议您升级VIP下载更多相关专利
  • [发明专利]基于强化学习的编译测试程序生成方法-CN202310508820.0在审
  • 陈俊洁;索宸耀;姜佳君;李行健 - 天津大学
  • 2023-05-08 - 2023-08-04 - G06F11/36
  • 本发明公开了一种基于强化学习的编译测试程序生成方法,采用强化学习模型,根据上一个的测试配置,基于已探索搜索空间内的测试配置构建下一个的测试配置;之后,利用构造完毕的测试配置生成一定量测试程序,以这些测试程序作为输入进行编译测试评估与现有技术相比,本发明使用待测版本的在线测试数据学习到当前版本的编译缺陷特征,从而规避基于历史编译缺陷数据学习的局限性,实现对已有方法的改进;以及,使用多智能体强化学习,从而更有效的对当前版本的编译缺陷特征进行学习
  • 基于强化学习编译器测试程序生成方法
  • [发明专利]一种神经网络加速编译方法及装置-CN202110821142.4在审
  • 刘勇攀;张驰;石皓冰;袁竹清;张璐;杨华中 - 清华大学
  • 2021-07-20 - 2021-10-26 - G06N3/063
  • 本发明提供一种神经网络加速编译方法及装置,该方法包括:基于神经网络结构信息和预设指令类型,生成每种预设指令类型之间的依赖关系和多种神经网络编译指令队列,其中,所述神经网络编译指令队列是由相同预设指令类型的神经网络编译指令组成的队列;根据所述依赖关系,确定每种神经网络编译指令队列之间的并行运行策略;根据所述并行运行策略,生成神经网络加速的加速指令。本发明通过融合循环缓冲区和超标量等柔性动态调整技术于神经网络专用加速中,能够有效解决神经网络参数加载和模块利用率等问题,使得神经网络能够更快速的部署于边缘端。
  • 一种神经网络加速器编译方法装置
  • [发明专利]一种硬件加速方法、编译以及设备-CN201510373054.7有效
  • 陈建;周洪;胡新宇;管红光;张小俊 - 华为技术有限公司
  • 2015-06-30 - 2019-10-25 - G06F8/36
  • 本发明实施例公开了一种硬件加速方法、编译和设备,用于提高代码执行效率从而实现硬件加速。本发明实施例方法包括:编译获取编译策略信息以及源代码;所述编译策略信息指示第一代码类型与第一处理匹配,第二代码类型与第二处理匹配;所述编译根据所述编译策略信息分析所述源代码中的代码段,确定属于第一代码类型的第一代码段或属于第二代码类型的第二代码段;所述编译将第一代码段编译为第一可执行代码,将所述第一可执行代码发往所述第一处理;将第二代码段编译为第二可执行代码,将所述第二可执行代码发往所述第二处理
  • 一种硬件加速方法编译器以及设备
  • [发明专利]一种硬件加速方法、编译以及设备-CN201910973202.7有效
  • 陈建;周洪;胡新宇;管红光;张小俊 - 华为技术有限公司
  • 2015-06-30 - 2021-08-20 - G06F8/30
  • 本发明实施例公开了一种硬件加速方法、编译和设备,用于提高代码执行效率从而实现硬件加速。本发明实施例方法包括:编译获取编译策略信息以及源代码;所述编译策略信息指示第一代码类型与第一处理匹配,第二代码类型与第二处理匹配;所述编译根据所述编译策略信息分析所述源代码中的代码段,确定属于第一代码类型的第一代码段或属于第二代码类型的第二代码段;所述编译将第一代码段编译为第一可执行代码,将所述第一可执行代码发往所述第一处理;将第二代码段编译为第二可执行代码,将所述第二可执行代码发往所述第二处理
  • 一种硬件加速方法编译器以及设备
  • [发明专利]一种用于部署CNN模型至基于FPGA的高性能加速编译系统-CN202310288488.1在审
  • 吴刚;陈永正;张澜;殷帅博 - 东北大学
  • 2023-03-23 - 2023-06-23 - G06F8/60
  • 本申请涉及卷积神经网络技术加速应用领域,尤其涉及一种用于部署CNN模型至基于FPGA的高性能加速编译系统。包括:编译前端和编译后端,以及运行时库和加速编译前端针对待部署的CNN模型进行量化处理,得到IR图;编译后端确定指令和配置信息;指令包括CONV、MAXP和AVGP、ADD、FC,配置文件包括权重片上内存管理算法进行设置的片上缓存区的相关信息;运行时库,存储指令和配置文件至DRAM,以及对FPGA进行配置;加速中的卷积引擎为基于im2col并行策略设置的全流水脉动阵列。本申请提供了用于部署CNN模型至基于FPGA的高性能加速编译系统,编译系统提供了完整的基于ONNXIR的灵活工具流,可以很方便地将不同的CNN模型部署到FPGA上。
  • 一种用于部署cnn模型基于fpga性能加速器编译系统

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top