[发明专利]一种面向信息茧房的跨领域推荐方法在审

专利信息
申请号: 202210337382.1 申请日: 2022-03-31
公开(公告)号: CN115525819A 公开(公告)日: 2022-12-27
发明(设计)人: 孙见山;张吉;姜元春;许增辉;宋靖达;袁昆;钱洋;柴一栋 申请(专利权)人: 之江实验室;合肥工业大学
主分类号: G06F16/9535 分类号: G06F16/9535;G06K9/62;G06N3/04;G06N3/08
代理公司: 安徽省合肥新安专利代理有限责任公司 34101 代理人: 陆丽莉;何梅生
地址: 310012 浙*** 国省代码: 浙江;33
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 面向 信息 领域 推荐 方法
【权利要求书】:

1.一种面向信息茧房的跨领域推荐方法,其特征在于,包括以下步骤:

步骤1、获取用户对产品的评分数据并进行数据预处理:

步骤1.1、确定两类属于不同领域的物品,并获得公共用户数据集U在两个领域物品上的评分数据集,其中,公共用户总数记为m;

步骤1.2、选择其中一个领域作为源域DS,另一个作为目标域DT,目标域DT和源域DS中的物品集分别表示为P和M,目标域DT和源域中DS的物品总数分别记为nT和nS

步骤1.3、令公共用户集U对目标域物品集P的评分矩阵记为RT中任意用户u对目标域DT中任意物品i的评分记为ru,i,若用户u评价了物品i,则令ru,i为1,否则,令ru,i为0,同理,令公共用户集U对源域物品集M的评分矩阵记为RS中任意用户u对源域DS中任意物品j的评分记为ru,j,若用户u评价了物品j,则令ru,j为1,否则,令ru,j为0;

步骤2、构建跨领域知识迁移推荐模型的跨域知识迁移模块:

步骤2.1、提取目标域DT中用户u-物品i的特征

步骤2.1.1、对用户u和目标域DT中物品i进行one-hot编码,分别将其映射为独热编码向量Iu∈{0,1}m和其中,每个独热编码向量仅在id索引位置时取值为1,其余位置均取值为0;

步骤2.1.2、对用户u和物品i分别进行嵌入化操作,构建用户u的嵌入矩阵和物品i的嵌入矩阵其中,d为嵌入后的维度;

步骤2.1.3、将用户u及物品i的嵌入表示XIu和YTIi进行横向拼接,得到目标域DT的用户u-物品i的特征且

步骤2.2、提取目标域DT中用户u的历史行为会话特征Ou,t

步骤2.2.1、从目标域DT中选择固定长度的、任意用户u历史点击任意物品i的表示向量,共计K个,并将其汇集成用户行为序列Λu,且Λu=[λ1,λ2,...,λk,...,λK],其中,λk表示第k个表示向量;

步骤2.2.2、利用长短期记忆网络对用户行为序列Λu进行序列嵌入,得到t时刻下LSTM输出的隐藏状态hu,t

步骤2.2.3、根据式(1)计算得到用户u的历史行为会话特征Ou,t

式(1)中,at,b表示使用Softmax函数计算得到的第b个权重系数;

步骤2.3、将所提取的用户u-物品i的特征及用户u的历史行为会话特征Ou,t进行拼接,得到目标域DT的组合特征Iu,i,且

步骤2.4、提取源域DS中用户u-物品j的特征Iu,j

步骤2.4.1、对于用户u和源域DS中的物品j,按照步骤2.1.1到步骤2.1.3的过程进行相同操作,最终得到源域DS的用户u-物品j的特征且其中,表示对源域DS中的物品j进行编码映射后的独热编码向量,表示物品j的嵌入矩阵;

步骤2.4.2、对源域DS的用户u-物品j的特征先复制后拼接,得到与目标域DT的组合特征Iu,i维度对齐的源域DS的用户u-物品j的嵌入表示特征Iu,j,且

步骤2.5、构建由目标域DT部分和源域DS部分所共同组成的跨领域交叉网络,并以组合特征Iu,i和嵌入表示特征Iu,j分别作为跨领域交叉网络中目标域DT部分和源域DS部分的输入,然后通过知识迁移学习域间迁移特征再将其与领域内特征进行结合,最终得到跨领域交叉网络的输出

步骤2.5.1、跨领域交叉网络在目标域DT部分,利用式(2)和式(3)分别得到第l+1隐藏层的领域内特征和域间迁移特征

式(2)和式(3)中,跨领域交叉网络在目标域DT部分的第l到第l+1隐藏层的权重矩阵表示为第l隐藏层的输入表示为当l=1时,初始化第l隐藏层的偏置项表示为跨领域交叉网络在源域DS部分的第l隐藏层的输入表示为当l=1时,初始化Ml为第l隐藏层从源域DS到目标域DT共享的知识迁移矩阵;

步骤2.5.2、根据式(4)计算跨领域交叉网络的输出

式(4)中,σ(·)表示激活函数,和表示通过Softmax函数计算得到的两种特征的权重系数,跨领域交叉网络的输出表示特征权重系数和对第l+1隐藏层的领域内特征和域间迁移特征进行加权和后的激活值;

步骤2.5.3、利用式(5)建立损失函数

式(5)中,分别表示的分布,sup表示求上界,E表示求期望,f(·)表示高斯核映射函数,||f||<1表示函数f在再生希尔伯特空间中的范数应不大于1;

步骤3、构建跨领域知识迁移推荐模型的目标域意外性提取模块:

步骤3.1、计算用户u对新物品inew的意外性

步骤3.1.1、根据式(6)对目标域DT中用户u历史点击物品i的表示向量进行聚类,直至密度加权平均值m(i)收敛,最终得到N个聚类簇{F1,F2,...,FZ,...,FN},其中,FZ表示第Z个簇;

式(6)中,ig表示目标域DT中除任意物品i外,用户u的历史点击物品,N(i)表示目标域DT中物品i的所有邻居物品的集合,K(ig-i)表示均值偏移算法使用的核函数;

步骤3.1.2、利用式(7)得到用户u对新物品inew的意外性

式(7)中,d(inew,FZ)表示新物品inew到第Z个聚类簇FZ的聚类边缘的距离;

步骤3.2、提取用户u的意外性感知向量unexp_facu

步骤3.2.1、从目标域DT中选择固定长度的、用户u历史点击物品i的表示向量,共计K′个,且K′<K,并将其汇集成用户短历史行为序列Λ′u,按照步骤2.2.2到步骤2.2.3的过程,使用LSTM进行相同操作,根据式(8)最终得到用户u的短历史行为会话特征O′u,t

式(8)中,a′t,b表示使用Softmax函数计算得到的第b个权重系数,h′u,t表示利用LSTM对用户短历史行为序列Λ′u进行序列嵌入后所得到的t时刻下LSTM输出的隐藏状态;

步骤3.2.2、以目标域DT中用户u的短历史行为会话特征O′u,t作为输入,使用L层全连接网络输出用户u的意外性感知向量unexp-facu

步骤4、利用所获取的数据集对跨领域知识迁移推荐模型进行训练,并根据测试结果调整优化跨领域知识迁移推荐模型的超参数;

步骤4.1、使用交叉熵作为基础损失函数,以用户u与物品i的交互行为作为区分正负样本的标准,并根据式(9)建立目标函数,根据式(10)建立联合损失函数,训练跨领域知识迁移推荐模型:

式(9)中,θ表示跨领域知识迁移推荐模型中的所有参数,R+、R-为用户u-物品i评分矩阵中的正样本与负样本,r′u,i为样本中用户u对物品i的真实评分,为跨领域知识迁移推荐模型用户u对物品i的预测得分;

式(10)中,分别为目标域DT的交叉熵损失、目标域DT的最大均值差异约束损失和源域DS的交叉熵损失,令则代表跨领域知识迁移推荐模型所有参数,且之间共享用户u及知识迁移矩阵M;

步骤4.2、使用Tensorflow框架,并根据式(11)和式(12)更新和学习跨领域知识迁移推荐模型参数:

式(11)和式(12)中,μ表示学习率,和分别表示跨领域知识迁移推荐模型在源域上和目标域上更新前和更新后的参数;

步骤5、按照固定比例随机抽取每个用户的评分数据用于划分训练集和测试集,将测试集数据输入到训练好的跨领域知识迁移推荐模型中,输出用户u对任意物品i的预测得分从而获得用户u对目标域DT物品集P中全部物品的预测得分后进行降序排序,最终选择前N项产品推荐给用户u:

步骤5.1、根据式(13)计算跨域知识迁移模块中用户u-物品i的相关性预测得分

式(13)中,f(·)是交互函数,θ是跨领域知识迁移推荐模型中的所有参数;

步骤5.2、根据式(14)计算目标域DT意外性提取模块的意外性得分

式(14)中,f(·)表示交互函数,unexp_facu表示用户u的意外性感知向量,表示用户u对新物品inew的意外性;

步骤5.3、根据式(15)计算物品i预测得分

式(15)中,表示目标域DT意外性提取模块的意外性得分,表示跨域知识迁移模块中用户u-物品i的相关性预测得分。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于之江实验室;合肥工业大学,未经之江实验室;合肥工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202210337382.1/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top