[发明专利]通信装置、神经网络处理芯片、组合装置和电子设备有效
申请号: | 201811641903.2 | 申请日: | 2018-12-29 |
公开(公告)号: | CN111381958B | 公开(公告)日: | 2022-12-09 |
发明(设计)人: | 不公告发明人 | 申请(专利权)人: | 上海寒武纪信息科技有限公司 |
主分类号: | G06F9/50 | 分类号: | G06F9/50;G06F15/163;G06N3/063 |
代理公司: | 北京华进京联知识产权代理有限公司 11606 | 代理人: | 孙岩 |
地址: | 200120 上海市浦*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 通信 装置 神经网络 处理 芯片 组合 电子设备 | ||
本申请涉及一种通信装置、神经网络处理芯片、组合装置和电子设备,包括:多个人工智能处理器(专用处理器可以包括多个人工智能处理器)和多通道内存之外,还可以包含其它配套部件。该配套部件包括但不限于:内存控制器、总线、接口,专用处理器通过接口与外部设备之间进行指令传输以及数据传输。
技术领域
本申请涉及人工智能技术领域,特别是涉及一种通信装置、神经网络处理芯片、组合装置和电子设备。
背景技术
随着人工智能技术的发展,主操作端已不能满足现有算法的计算需求,神经网络专用芯片营运而生。实践证明,人工智能任务处理相对于通用处理任务或图像处理任务而言,具有独特的数据结构、存储方式、计算模式等,因而可以设计专用集成电路为人工智能任务处理重新分配芯片计算资源,实现低功耗、低延迟、高吞吐率的计算。NPU(Neuralnetwork Processing Unit)是一种专用集成电路,可以实现人工智能任务处理,例如神经网络计算,其具有低功耗、高效能、小面积的特点。
根据摩尔定律和Dennard Scaling定律,单核高效能处理器的计算能力会因为物理因素的限制达到瓶颈。为了提高计算并行性,业界的芯片设计逐渐转向多核高效率处理器设计上。不仅如此,随着高性能计算机和数据中心的发展,越来越多的计算资源被集中起来,多芯片协同处理已是常态。为了实现基于NPU的高处理性能和高可扩展的AI处理装置,NPU芯片间需要支持高效的数据传输。
但是目前还没有一种装置和方法能够支持NPU芯片间的数据传输。
发明内容
基于此,有必要针对上述技术问题,提供一种通信装置、神经网络处理芯片、组合装置和电子设备。
一种通信装置,所述通信装置位于芯片上,所述装置包括:
接收装置、任务处理装置、发送装置以及存储器;所述任务处理装置一端连接接收装置,另一端连接发送装置;所述接收装置、所述发送装置分别与所述存储器相连;
所述接收装置用于接收通信配置信息和通信数据;
所述任务处理装置用于对所述通信数据进行计算,得到待发送数据;
所述存储器用于存储所述通信配置信息;
所述发送装置用于将所述待发送数据输出。
在其中一个实施例中,所述发送装置包括:
发送配置电路,控制电路以及发送端口电路;所述控制电路分别与所述发送配置电路、所述发送端口电路相连;所述控制电路分别与所述发送配置电路、所述发送端口电路相连。
在其中一个实施例中,所述接收装置包括:接收端口电路,配置信息解析电路和控制电路;所述接收端口电路与所述配置信息解析电路相连,所述配置信息解析电路还与所述控制电路相连。
在其中一个实施例中,所述任务处理装置包括:结束信息分析电路、计算处理电路和传送接口电路;所述结束信息分析电路与所述计算处理电路相连;所述计算处理电路还与所述传送接口电路相连;
所述结束信息分析电路用于判断任务处理完成状态;
所述传送接口电路用于获取输入数据和传送配置信息;
所述计算处理电路用于根据所述输入数据执行计算,得到输出数据;
所述传送接口电路还用于根据所述传送配置信息将所述输出数据输出。
在其中一个实施例中,所述通信配置信息包括所述输入数据、所述输出数据的源地址,所述输入数据、所述输出数据待发送的目的地址,所述输入数据、所述输出数据在存储空间中的偏移量以及所述输入数据、所述输出数据的数据块大小中的一种或几种。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海寒武纪信息科技有限公司,未经上海寒武纪信息科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811641903.2/2.html,转载请声明来源钻瓜专利网。