[发明专利]基于CUDA并行计算架构对折叠进行GPU并行化的方法在审

专利信息
申请号: 202310003422.3 申请日: 2023-01-03
公开(公告)号: CN116051355A 公开(公告)日: 2023-05-02
发明(设计)人: 吕健;谢晓尧;于徐红 申请(专利权)人: 贵州师范大学
主分类号: G06T1/20 分类号: G06T1/20;G06F11/34
代理公司: 上海德誉达专利代理事务所(普通合伙) 31426 代理人: 马朋巍
地址: 550001 *** 国省代码: 贵州;52
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 基于 cuda 并行 计算 架构 折叠 进行 gpu 方法
【权利要求书】:

1.基于CUDA并行计算架构对折叠进行GPU并行化的方法,其特征在于,包括以下步骤:

步骤S1、基于gperftools做性能分析;

步骤S2、分析数据依赖性;

步骤S3、基于CUDA的GPU并行。

2.根据权利要求1所述的基于CUDA并行计算架构对折叠进行GPU并行化的方法,其特征在于,所述步骤S1具体包括以下步骤:

S11、链接库,安装gperftools会附带库环境;

S12、运行需要做性能分析的代码,此时gperftools会对运行的代码进行性能分析,并输出结果;

S13对这个输出的结果做分析运算,得到其中各个函数在性能分析中所占的比例,生成可读的文本和图片结果。

3.根据权利要求1所述的基于CUDA并行计算架构对折叠进行GPU并行化的方法,其特征在于,所述步骤S2具体包括以下步骤:

S21、在并行时,有数据依赖关系的总会被分配到用一个计算资源上执行,并不会产生错误歧义;

S22、有循环依赖的是不同次的迭代,因此有可能会分配到不同的计算资源上,而此时因为缺少之前的迭代的结果,本次迭代中的计算会产生错误结果,从而依次影响后续的迭代,导致最终的计算错误。

4.根据权利要求1所述的基于CUDA并行计算架构对折叠进行GPU并行化的方法,其特征在于,所述步骤S3具体包括以下步骤:

串行的折叠中的的combine_prof函数是在四重循环里面调用的,在计算数据的时候,是在计算机上重复执行四重循环次数个combine_profs函数,而基于CUDA的GPU并行,则是消除了数据循环依赖的基础上,可以把四重循环次数个gpu_conbine_profs函数发送到GPU的核上计算,同时可以在GPU的核上调用多个函数。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于贵州师范大学,未经贵州师范大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202310003422.3/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top