[发明专利]数据处理方法及装置在审
申请号: | 202110304438.9 | 申请日: | 2021-03-22 |
公开(公告)号: | CN115115020A | 公开(公告)日: | 2022-09-27 |
发明(设计)人: | 王坚;皇甫幼睿;李榕;王俊 | 申请(专利权)人: | 华为技术有限公司 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08 |
代理公司: | 北京中博世达专利商标代理有限公司 11274 | 代理人: | 申健 |
地址: | 518129 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 数据处理 方法 装置 | ||
本申请提供一种数据处理方法及装置,能够降低神经网络的计算复杂度和计算量,从而提高数据处理效率,可应用于通信系统中的节点,如第一节点。第一节点和第二节点存在邻接关系,且第一节点和第二节点用于执行同一类任务。该方法包括:获取第一数据,并通过第一神经网络,确定第一数据的处理结果,其中,第一神经网络是根据第一神经网络参数集合的组合确定的,该组合中的第一神经网络参数集合的数量与第二节点的数量正相关。
技术领域
本申请涉及通信领域,尤其涉及一种数据处理方法及装置。
背景技术
随着人工智能(artificial intelligence,AI)技术的发展,神经网络可以采用设备集群的方式部署,如设备集群内的每个节点都可以部署完整神经网络,该完整神经网络的网络规模与集群规模匹配。如此,每个节点可以独立地训练该完整神经网络,并使用训练后的完整神经网络完成相应的集群业务。
然而,由于每个节点部署的都是完整神经网络,故导致神经网络的计算复杂度高,计算量大,数据处理效率低。
发明内容
本申请实施例提供一种数据处理方法及装置,能够降低神经网络的计算复杂度和计算量,从而提高数据处理效率。
为达到上述目的,本申请采用如下技术方案:
第一方面,提供一种数据处理方法。该方法应用于第一节点。第一节点和第二节点存在邻接关系,且第一节点和第二节点用于执行同一类任务。该方法包括:获取第一数据,并通过第一神经网络,确定第一数据的处理结果。其中,第一神经网络是根据第一神经网络参数集合的组合确定的。该组合中的第一神经网络参数集合的数量与第二节点的数量正相关。
基于第一方面所述的方法,多个节点都可以执行同一类任务,第一节点可以根据多个节点中邻居节点的数量,如第二节点的数量,确定第一神经网络参数集合的数量,进而确定第一神经网络。第一神经网络的网络规模便可以与第二节点的数量正相关,以配合第二节点执行同一类任务。例如,由于完整神经网络的网络规模与集群规模匹配,即与设备集群的节点数量匹配,则当邻居节点的数量小于设备集群的节点数量时,第一神经网络的网络规模也小于完整神经网络的网络规模,故能够降低神经网络的计算复杂度和计算量,提高数据处理效率。
一种可能的设计方案中,第一神经网络可以包括:N个隐藏层。第i个隐藏层可以包括Mi个参数子集合。Mi个参数子集合中可以有m个参数子集合相同。Mi个参数子集合可以是根据第一神经网络参数集合的组合确定的。N为正整数,i为小于或等于N的正整数,M为大于1的整数,m为小于或等于Mi且大于1的整数。也就是说,第一神经网络可以是根据相同的参数子集合的组合确定的。如此,可以有效降低计算量,以快速地确定第一神经网络。
可选地,第一神经网络参数集合可以包括:第一参数子集合和/或第二参数子集合。换言之,第一神经网络可以是根据两种参数子集合的组合确定的。如此,可以进一步降低计算量,以更快速地确定第一神经网络。
进一步地,第i个隐藏层的神经网络结构可表示为:其中,Wi-1,i可以用于表示第i个隐藏层的神经网络结构。Si-1,i可以是根据第i个隐藏层对应的第一参数子集合确定的,Oi-1,i可以是根据第i个隐藏层对应的第二参数子集合确定的。应理解,第i个隐藏层的这种对称结构可使得第一神经网络具有置换不变性。比如,若第一数据的输入顺序变化,则第一神经网络输出的处理结果的顺序也相应变化,而处理结果本身保持不变,以便无论以什么顺序输入第一数据,第一神经网络都能够输出正确的处理结果。因此,相较于不具有置换不变性的神经网络,具有置换不变性的第一神经网络可以省略调整输入顺序这一步骤,以简化处理流程,从而可以提高数据处理效率。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华为技术有限公司,未经华为技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110304438.9/2.html,转载请声明来源钻瓜专利网。