专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果33个,建议您升级VIP下载更多相关专利
  • [发明专利]用于GPU的NoC仲裁方法-CN202310848547.6在审
  • 赵夏;方健;何益百;张光达;王会权;温家辉;王璐;陈任之 - 中国人民解放军军事科学院国防科技创新研究院
  • 2023-07-12 - 2023-10-27 - G06T1/20
  • 本发明公开了一种用于GPU的NoC仲裁方法,用于GPU,包括:响应于程序的执行,在流处理器发送到片上互连网络的访存请求中编码当前流处理器中到达barrier的线程束数目;根据访存请求对应的输出端口,将片上互连网络接收的访存请求划分为多组以使每组中的访存请求对应的输出端口相同;针对每一组访存请求,对一组访存请求中的所有访存请求进行轮询仲裁,选择出优先级最高的访存请求发送至对应的输出端口,其中,访存请求中编码的到达barrier的线程束数目越大,访存请求的优先级越高。本发明的用于GPU的NoC仲裁方法能够保证需要快速达到barrier的线程束发出的访存请求得到及时的响应,使得线程束快速通过barrier,加快线程束的执行速度,提高GPU的性能。
  • 用于gpunoc仲裁方法
  • [发明专利]GPU多任务调度方法-CN202310620267.X在审
  • 赵夏;温家辉;王会权;张光达;何益百;方健;王璐;万众;赵杨 - 中国人民解放军军事科学院国防科技创新研究院
  • 2023-05-30 - 2023-10-20 - G06F9/50
  • 本发明公开了一种GPU多任务调度方法,该方法用于具有cluster结构的GPU,包括:当多个任务分配到GPU时,根据GPU的每个cluster结构中SM的空闲情况进行任务分配,在完成SM分配后开始运行任务;在任务运行阶段,根据任务的计算访存特征,实时调整cluster结构中分配给不同任务的SM。本发明的GPU多任务调度方法在任务到来时先根据SM空闲情况进行SM的初步分配,基于初步分配的SM运行任务,而后在任务运行阶段,根据任务的计算访存特征实时动态地调整分配给不同任务的SM,既能够提高片上网络资源的利用率,又能够缓解cluster网络端口的冲突,保证任务运行时的性能。
  • gpu任务调度方法
  • [发明专利]TLB页表项管理方法-CN202310687143.3在审
  • 黄成龙;张光达;何益百;王会权;温家辉;王璐;方健;赵夏 - 中国人民解放军军事科学院国防科技创新研究院
  • 2023-06-12 - 2023-10-03 - G06F12/1009
  • 本发明公开了一种TLB页表项管理方法、装置、设备及存储介质,该TLB页表项管理方法包括以下步骤:建立包含页表项索引与虚拟页号的对应关系的哈希函数,其中,在哈希函数中,TLB中页表项的每一位索引采用虚拟页号的多位异或计算,且对应同一索引位的虚拟页号的多个位数彼此相差页表项索引位数;响应于输入的虚拟地址,基于哈希函数,进行页表项读出、或写入与读出,以完成虚实地址转换。本发明的TLB页表项管理方法、装置、设备及存储介质通过选取虚拟页号不同位进行异或操作来确定虚拟页号对应的页表项索引,进而确定虚拟页号对应的页表项在TLB中的写入与读出位置,能够充分利用TLB的存储空间,并减少比较电路的使用。
  • tlb页表项管理方法
  • [发明专利]SNAPPY压缩算法硬件加速器-CN202310587230.1在审
  • 方健;温家辉;张光达;王会权;赵夏;万众;蒋艳德;黄成龙;罗慧 - 中国人民解放军军事科学院国防科技创新研究院
  • 2023-05-24 - 2023-08-01 - H03M7/30
  • 本发明公开了一种SNAPPY压缩算法硬件加速器,包括:长度生成模块用于接收待压缩数据,并获取待压缩数据的首地址,待压缩数据的长度和压缩写回数据首地址,将待压缩数据的首地址和待压缩数据的长度发送至读取模块,将压缩写回数据首地址发送至写回模块,将待压缩数据的长度转换为预设格式;读取模块用于读取长度生成模块中的待压缩数据,并将所读取的待压缩数据传输至压缩模块;压缩模块用于将读取模块传输的待压缩数据进行压缩,并将所压缩的数据传输至写回模块;写回模块用于接收来自压缩模块所压缩的数据并进行缓存,并将已压缩的数据发送至主机端。以硬件流水并行的处理能力完成SNAPPY压缩,不占用CPU进行压缩,从而压缩速度快,效率高。
  • snappy压缩算法硬件加速器
  • [发明专利]基于端到端文本过滤的评分预测方法-CN202310201046.9在审
  • 温家辉;方健;张光达;王会权;张拥军;郝锋 - 中国人民解放军军事科学院国防科技创新研究院
  • 2023-03-01 - 2023-07-11 - G06F40/289
  • 本发明公开了一种基于端到端文本过滤的评分预测方法,包括:获取待预测评论文本,确定评论文本对应的用户和商品;获取用户的至少一个历史评论文本和商品的至少一个历史评论文本;获取评论文本对应的词组级卷积特征向量和历史评论文本对应的词组级卷积特征向量;获取评论文本对应的特征向量和历史评论文本对应的特征向量;根据特征向量,确定评论文本与历史评论文本之间的相似性;基于相似性,对历史评论文本进行过滤,并根据过滤后的历史评论文本计算相似性文本特征向量;对评论文本的特征向量和相似性文本特征向量进行融合,获取全局文本特征向量;根据全局文本特征向量,确定评论文本的预测评分。本发明能够提高评论文本的评分预测性能和精度。
  • 基于端到端文本过滤评分预测方法
  • [发明专利]MCM-GPU末级高速缓存管理方法及MCM-GPU-CN202310042695.9在审
  • 赵夏;王冬升;王会权;张光达;陈莉丽;温家辉;王承智;王璐 - 中国人民解放军军事科学院国防科技创新研究院
  • 2023-01-28 - 2023-05-30 - G06F12/0897
  • 本发明公开了一种MCM‑GPU末级高速缓存管理方法及MCM‑GPU,该方法包括:在GPU模块中选取部分LLC作为远端LLC,以缓存远端GPU模块的只读存储空间中存储的数据;响应于执行的程序,实时判断是否有流处理器发起访存请求;若有,则判断访存请求是否访问只读存储空间,若不是,则将访存请求发送至当前GPU模块中对应的LLC或对应的远端GPU模块中的LLC,若是,则判断访存请求是否访问本地存储空间;若是,则将访存请求发送至当前GPU模块中对应的LLC;若不是,则将访存请求发送至当前GPU模块中对应的远端LLC;判断是否命中,若否,则将访存请求发送至对应的远端GPU模块中的LLC。本发明能够降低本地访问远端存储空间的次数和开销,减少片上网络冲突,提高MCM‑GPU的性能。
  • mcmgpu高速缓存管理方法
  • [发明专利]用于MCM-GPU的内存页分配方法-CN202211725446.1在审
  • 赵夏;王会权;张光达;黄安文;方健;王璐;温家辉 - 中国人民解放军军事科学院国防科技创新研究院
  • 2022-12-30 - 2023-04-28 - G06F9/50
  • 本发明公开了一种用于MCM‑GPU的内存页分配方法,包括:响应于执行的程序,实时判断程序执行的过程中是否发生缺页;若发生缺页,则使用当前设定的内存页分配策略将内存页分配到对应的GPU模块的内存空间;判断当前内存页在不同GPU模块的内存空间的分布是否均衡;若当前内存页在不同GPU模块的内存空间的分布均衡,则使用first‑touch内存页分配策略作为内存页分配策略进行下一个内存页的分配,否则使用round‑robin内存页分配策略作为内存页分配策略进行下一个内存页的分配。本发明能够将内存页尽可能地分配在发起访存请求的GPU模块的内存空间,有效地避免访问远端内存的开销和延迟;同时,能够将内存页尽可能地平均分配到MCM‑GPU中不同GPU模块的内存空间,减少访问冲突。
  • 用于mcmgpu内存分配方法

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top