[发明专利]基于CUDA并行计算架构对折叠进行GPU并行化的方法在审
申请号: | 202310003422.3 | 申请日: | 2023-01-03 |
公开(公告)号: | CN116051355A | 公开(公告)日: | 2023-05-02 |
发明(设计)人: | 吕健;谢晓尧;于徐红 | 申请(专利权)人: | 贵州师范大学 |
主分类号: | G06T1/20 | 分类号: | G06T1/20;G06F11/34 |
代理公司: | 上海德誉达专利代理事务所(普通合伙) 31426 | 代理人: | 马朋巍 |
地址: | 550001 *** | 国省代码: | 贵州;52 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 cuda 并行 计算 架构 折叠 进行 gpu 方法 | ||
1.基于CUDA并行计算架构对折叠进行GPU并行化的方法,其特征在于,包括以下步骤:
步骤S1、基于gperftools做性能分析;
步骤S2、分析数据依赖性;
步骤S3、基于CUDA的GPU并行。
2.根据权利要求1所述的基于CUDA并行计算架构对折叠进行GPU并行化的方法,其特征在于,所述步骤S1具体包括以下步骤:
S11、链接库,安装gperftools会附带库环境;
S12、运行需要做性能分析的代码,此时gperftools会对运行的代码进行性能分析,并输出结果;
S13对这个输出的结果做分析运算,得到其中各个函数在性能分析中所占的比例,生成可读的文本和图片结果。
3.根据权利要求1所述的基于CUDA并行计算架构对折叠进行GPU并行化的方法,其特征在于,所述步骤S2具体包括以下步骤:
S21、在并行时,有数据依赖关系的总会被分配到用一个计算资源上执行,并不会产生错误歧义;
S22、有循环依赖的是不同次的迭代,因此有可能会分配到不同的计算资源上,而此时因为缺少之前的迭代的结果,本次迭代中的计算会产生错误结果,从而依次影响后续的迭代,导致最终的计算错误。
4.根据权利要求1所述的基于CUDA并行计算架构对折叠进行GPU并行化的方法,其特征在于,所述步骤S3具体包括以下步骤:
串行的折叠中的的combine_prof函数是在四重循环里面调用的,在计算数据的时候,是在计算机上重复执行四重循环次数个combine_profs函数,而基于CUDA的GPU并行,则是消除了数据循环依赖的基础上,可以把四重循环次数个gpu_conbine_profs函数发送到GPU的核上计算,同时可以在GPU的核上调用多个函数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于贵州师范大学,未经贵州师范大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310003422.3/1.html,转载请声明来源钻瓜专利网。