[发明专利]用于搜索系统的训练方法、电子设备和存储介质在审
| 申请号: | 202111308794.4 | 申请日: | 2021-11-05 | 
| 公开(公告)号: | CN114036322A | 公开(公告)日: | 2022-02-11 | 
| 发明(设计)人: | 王海峰;田浩;刘璟;吴华;吴甜;孙宇;佘俏俏 | 申请(专利权)人: | 北京百度网讯科技有限公司 | 
| 主分类号: | G06F16/43 | 分类号: | G06F16/43;G06F16/48;G06F40/30;G06N3/08 | 
| 代理公司: | 北京市汉坤律师事务所 11602 | 代理人: | 姜浩然;吴丽丽 | 
| 地址: | 100085 北京市*** | 国省代码: | 北京;11 | 
| 权利要求书: | 查看更多 | 说明书: | 查看更多 | 
| 摘要: | |||
| 搜索关键词: | 用于 搜索 系统 训练 方法 电子设备 存储 介质 | ||
1.一种基于预训练语言模型的搜索系统的训练方法,其中,所述搜索系统包括由召回模型和排序模型级联组成的端到端深度神经网络基础模型,并且其中,所述召回模型基于双编码器构造,所述排序模型基于交叉编码器构造,所述方法包括:
接收样本数据集,所述样本数据集中的样本数据包括样本搜索请求和第一目标输出数据集;
初始化所述召回模型和所述排序模型中的多个参数;
对于每一个样本数据,执行如下操作:
由所述召回模型中的第一编码器将该样本数据中的样本搜索请求转换为第一请求语义向量;
由所述召回模型中的第二编码器分别将不同类型的多个候选数据转换成对应的多个第一数据语义向量,其中,所述不同类型的多个候选数据至少包括文本、图片和视频;
分别计算所述第一请求语义向量和所述多个第一数据语义向量之间的第一相似度,以获取第一数量的第一数据语义向量,其中,所述第一数量的第一数据语义向量与所述第一请求语义向量的第一相似度均满足预设条件;
依次将所述样本搜索请求和与所述第一数量的第一数据语义向量中的每一个第一数据语义向量相对应的候选数据作为第一联合输入值输入到所述排序模型的交叉编码器中,以对分别与所述第一数量的第一数据语义向量相对应的候选数据进行排序;
基于经排序的候选数据和所述第一目标输出数据集,计算损失函数;以及
基于所述损失函数调整所述召回模型和所述排序模型中的多个参数。
2.如权利要求1所述的方法,其中,所述第一联合输入值包括相应的候选数据的内容质量、发布时间和来源可信度中的至少一者。
3.如权利要求1或2所述的方法,其中,所述系统还包括推荐模型,并且其中,所述样本数据集中的样本数据还包括第二目标输出数据集,
所述方法还包括:
初始化所述推荐模型中的多个参数;
对于每一个样本数据,执行如下操作:
依次将所述样本搜索请求和与所述第一数量的第一数据语义向量中的每一个第一数据语义向量相对应的候选数据作为第二联合输入值输入到所述推荐模型的交叉编码器中,以对分别与所述第一数量的第一数据语义向量相对应的候选数据进行排序;
基于经排序的候选数据和所述第二目标输出数据集,计算损失函数;以及
基于所述损失函数调整所述目标模型和所述推荐模型中的多个参数。
4.如权利要求3所述的方法,其中,所述第二联合输入值包括相应的候选数据的语义相关性特征和感知相关性特征。
5.如权利要求1至4中任一项所述的方法,其中,所述多个第一数据语义向量中的每一个数据语义向量包括与相应的候选数据的内容质量相关的维度。
6.如权利要求1至5中任一项所述的方法,其中,所述多个第一数据语义向量中的每一个数据语义向量包括与相应的候选数据的发布时间相关的维度。
7.如权利要求1至6中任一项所述的方法,其中,所述多个第一数据语义向量中的每一个数据语义向量包括与相应的候选数据的来源可信度相关的维度。
8.如权利要求1至7中任一项所述的方法,其中,所述第一请求语义向量包括与所述用户的搜索相关的上下文信息,所述上下文信息包括时间、地点和所述用户的前序搜索中的至少一个。
9.如权利要求1至8中任一项所述的方法,其中,所述不同类型的多个候选数据至少还包括表格和知识图谱。
10.如权利要求1至9中任一项所述的方法,其中,所述不同类型的多个候选数据中的至少一个文本或视频数据是通过对原始的完整数据进行细粒度划分获得的。
11.如权利要求1至10中任一项所述的方法,其中,所述多个第一数据语义向量具有统一规格。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京百度网讯科技有限公司,未经北京百度网讯科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111308794.4/1.html,转载请声明来源钻瓜专利网。





