[发明专利]网络中的多个层的可变精度和混合类型表示在审
申请号: | 201810410228.6 | 申请日: | 2018-05-02 |
公开(公告)号: | CN108805263A | 公开(公告)日: | 2018-11-13 |
发明(设计)人: | U·萨雷尔;E·科恩;T·施瓦茨;A·阿蒙;Y·沙德米;A·布莱韦斯;G·列伊博维奇;J·德赖弗斯;L·法伊维谢夫斯基;T·巴昂;Y·法伊斯;J·苏巴格 | 申请(专利权)人: | 英特尔公司 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08 |
代理公司: | 上海专利商标事务所有限公司 31100 | 代理人: | 张欣;黄嵩泉 |
地址: | 美国加利*** | 国省代码: | 美国;US |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 投射 精度水平 存储指令 混合类型 加载指令 硬件逻辑 嵌入的 可变 加载 显露 网络 | ||
在一个示例中,一种装置包括多个执行单元,该多个执行单元包括至少第一类型的执行单元和第二类型的执行单元以及至少部分地包括硬件逻辑的逻辑,该逻辑用于:显露出在加载指令或存储指令中的至少一个中的嵌入的投射操作;确定该投射操作的目标精度水平;并以该目标精度水平加载投射操作。还公开并要求保护其他实施例。
技术领域
实施例总体上涉及数据处理,且更具体地,涉及经由通用图形处 理单元的机器学习处理。
背景技术
机器学习已经在解决许多类型的任务方面取得成功。当训练和使 用机器学习算法(例如,神经网络)时产生的计算自然地适合于高效的并 行实现。因此,诸如通用图形处理单元(GPGPU)之类的并行处理器在深 度神经网络的实际实现中扮演着重要角色。具有单指令多线程(SIMT)架 构的并行图形处理器被设计成使图形流水线中的并行处理量最大化。在 SIMT架构中,并行线程组试图尽可能经常地一起同步执行程序指令以提高 处理效率。由并行机器学习算法实现所提供的效率允许使用高容量网络并 且使这些网络能在较大的数据集上进行训练。
附图说明
为了以能够详细理解本实施例的以上记载特征的方式,可以通过 参考实施例来对以上简要概括的实施例进行更具体的描述,这些实施例中 的一些在所附附图中被示出。然而,应当注意,所附附图仅示出典型实施 例,并因此不应被认为是对其范围的限制。
图1是示出了被配置成实现本文所述的实施例的一个或多个方面 的计算机系统的框图;
图2A至图2D示出了根据实施例的并行处理器部件;
图3A至图3B是根据实施例的图形多处理器的框图;
图4A至图4F示出了其中多个GPU通信地耦合至多个多核处理器 的示例性架构;
图5是根据实施例的图形处理流水线的概念图。
图6A-6B和图7示出了根据实施例的技术中的示例性架构和操 作。
图8示出了根据实施例的机器学习软件栈;
图9示出了根据实施例的高度并行的通用图形处理单元;
图10示出了根据实施例的多GPU计算系统;
图11A至图11B示出了示例性深度神经网络的层;
图12示出了示例性递归神经网络;
图13示出了深度神经网络的训练和部署;
图14是示出分布式学习的框图;
图15示出了适合于使用训练模型执行推断的示例性推断用芯片上 系统(SOC);
图16是根据实施例的处理系统的框图;
图17是根据实施例的处理器的框图;
图18是根据实施例的图形处理器的框图;
图19是根据一些实施例的图形处理器的图形处理引擎的框图;
图20是由附加实施例提供的图形处理器的框图;
图21示出了线程执行逻辑,所述线程执行逻辑包括在一些实施 例中采用的处理元件阵列;
图22是示出了根据一些实施例的图形处理器指令格式的框图;
图23是根据另一个实施例的图形处理器的框图;
图24A至图24B示出了根据一些实施例的图形处理器命令格式 和命令序列;
图25示出了根据一些实施例的数据处理系统的示例性图形软件 架构;
图26是示出了根据实施例的IP核开发系统的框图;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于英特尔公司,未经英特尔公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810410228.6/2.html,转载请声明来源钻瓜专利网。