[发明专利]模型联合训练方法及装置有效
申请号: | 202110362275.X | 申请日: | 2019-12-09 |
公开(公告)号: | CN112925558B | 公开(公告)日: | 2022-05-17 |
发明(设计)人: | 陈星宇;王磊;谭晋;黄群山 | 申请(专利权)人: | 支付宝(杭州)信息技术有限公司 |
主分类号: | G06F8/71 | 分类号: | G06F8/71 |
代理公司: | 北京亿腾知识产权代理事务所(普通合伙) 11309 | 代理人: | 张明;周良玉 |
地址: | 310000 浙江省杭州市*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 模型 联合 训练 方法 装置 | ||
本说明书实施例提供一种模型联合训练方法及装置,在训练方法中,接收模型训练任务的配置指令。该配置指令指示多个数据提供方中参与本次联合训练的各目标提供方以及本次联合训练所使用的目标模型。查询版本信息表,以确定各目标提供方各自部署的执行引擎的引擎版本信息。基于各目标提供方各自部署的执行引擎的引擎版本信息,判断目标模型是否为各目标提供方各自部署的执行引擎共同支持的公共模型,并在目标模型是公共模型的情况下,确定目标模型的公共版本。向各目标提供方发送联合训练请求,该联合训练请求指示各目标提供方通过各自部署的执行引擎加载公共版本的目标模型并训练。由此,可实现各数据提供方数据的隐私保护。
本申请为2019年12月09日提交的申请号为201911250425.7,名为“模型联合训练方法及装置”的发明专利申请的分案申请。
技术领域
本说明书一个或多个实施例涉及计算机技术领域,尤其涉及一种模型联合训练方法及装置。
背景技术
在模型联合训练场景下,通常会有多个数据提供方,该多个数据提供方由协作方统一控制。多个数据提供方中的每个数据提供方可以部署模型训练的执行引擎。需要说明的是,每个数据提供方的数据仅对其部署的执行引擎可见,对协作方和其他数据提供方不可见。另外,上述执行引擎的功能通常需要不断的优化、完善。可以理解的是,执行引擎功能的每次优化或者完善,会使得执行引擎的版本不断升级。然而由于各数据提供方各自的系统性能不同等原因,通常无法对各数据提供方部署的执行引擎进行统一升级,由此就会导致各数据提供方部署的执行引擎的版本不统一的问题。而若执行引擎的版本不统一,则无法保障模型联合训练过程的正常执行。
因此,需要提供一种更可靠的模型联合训练方法。
发明内容
本说明书一个或多个实施例描述了一种模型联合训练方法及装置,可以确保模型联合训练过程的有效执行。
第一方面,提供了一种模型联合训练方法,包括:
接收模型训练任务的配置指令;所述配置指令至少指示所述多个数据提供方中参与本次联合训练的各目标提供方以及本次联合训练所使用的目标模型;
查询所述版本信息表,以确定所述各目标提供方各自部署的执行引擎的引擎版本信息;
基于所述各目标提供方各自部署的执行引擎的引擎版本信息,判断所述目标模型是否为所述各目标提供方各自部署的执行引擎共同支持的公共模型,并在所述目标模型是公共模型的情况下,确定所述目标模型的公共版本;
向所述各目标提供方发送联合训练请求;所述联合训练请求用于指示所述各目标提供方通过各自部署的执行引擎加载所述公共版本的所述目标模型并基于联合训练所述目标模型。
第二方面,提供了一种模型联合训练方法,包括:
接收所述协作方发送的联合训练请求;所述联合训练请求至少指示目标模型以及所述目标模型的公共版本;所述目标模型为所述各目标提供方各自部署的执行引擎共同支持的公共模型;所述目标模型以及所述目标模型的公共版本是由所述协作方基于所述版本信息表中记录的各数据提供方各自部署的执行引擎的引擎版本信息确定;
通过所述第一执行引擎加载所述公共版本的所述目标模型,并与其他数据提供方联合训练所述目标模型。
第三方面,提供了一种模型联合训练装置,包括:
接收单元,用于接收模型训练任务的配置指令;所述配置指令至少指示所述多个数据提供方中参与本次联合训练的各目标提供方以及本次联合训练所使用的目标模型;
查询单元,用于查询所述版本信息表,以确定所述各目标提供方各自部署的执行引擎的引擎版本信息;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于支付宝(杭州)信息技术有限公司,未经支付宝(杭州)信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110362275.X/2.html,转载请声明来源钻瓜专利网。