[发明专利]一种基于回归树上下文特征自动编码的偏置张量分解方法在审
| 申请号: | 201910416222.4 | 申请日: | 2019-05-20 |
| 公开(公告)号: | CN110209933A | 公开(公告)日: | 2019-09-06 |
| 发明(设计)人: | 赵建立;王伟;吴文敏;杨尚成 | 申请(专利权)人: | 山东科技大学 |
| 主分类号: | G06F16/9535 | 分类号: | G06F16/9535;G06F17/27;G06F17/22 |
| 代理公司: | 青岛智地领创专利代理有限公司 37252 | 代理人: | 种艳丽 |
| 地址: | 266590 山东*** | 国省代码: | 山东;37 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 偏置 自动编码 分解 回归 个性化推荐 上下文感知 上下文类别 分解算法 模型参数 推荐系统 指数增长 维数 申请 | ||
本发明公开了一种基于回归树上下文特征自动编码的偏置张量分解方法,属于个性化推荐领域,本申请首先提出了用于上下文感知推荐的偏置张量分解模型,然后针对张量分解模型的模型参数随上下文类别呈指数增长的问题,提出了基于回归树上下文自动编码的偏置张量分解算法,提高了推荐系统的推荐精度,解决了上下文维数过多的问题。
技术领域
本发明属于个性化推荐领域,具体涉及一种基于回归树上下文特征自动编码的偏置张量分解方法。
背景技术
互联网和移动通讯设备的发展使得信息的产生和获取变得越来越容易,为了帮助用户解决信息过载问题,诞生了两种互联网技术,分别是搜索引擎和推荐系统。
其中推荐系统的主要任务是综合用户的历史行为等信息,向用户提供个性化的信息服务。其原理是分析和挖掘用户和物品间的二元关系,进而帮助用户从海量的信息中找到他们最有可能感兴趣的信息,从而大大减少用户找到有用信息的时间,改善用户体验。
传统的推荐算法仅利用用户的行为数据来挖掘用户兴趣。这类算法是基于用户的兴趣不会在短期内发生变化这一假设,因而可以通过历史数据训练出模型来对用户将来的兴趣进行预测。事实上,这一假设只适用于部分场景。虽然用户的一般兴趣可能相对稳定,但是用户的兴趣还受很多额外因素的影响。例如,在电影推荐系统中,用户对电影的需求与观影时间(如春节、圣诞节、情人节等),以及观影时的同伴(如情侣、父母、同学、同事等)有关。在推荐过程中使用上下文信息,有助于向用户提供更加个性化的推荐。
张量分解是较常用的上下文推荐算法,通过把数据建模成用户-物品-上下文N维张量的形式,张量分解可以灵活地整合上下文信息。然后通过基于已知数据对张量进行分解可以求得模型参数并依据该模型对新的数据进行预测。但是现有的张量分解算法存在以下问题:
1、未考虑用户偏置、物品偏置、上下文偏置及全局平均分等因素对评分的影响;
2、张量分解模型的模型参数随上下文类别呈指数增长,计算成本高。
发明内容
针对现有技术中存在的上述技术问题,本发明提出了一种基于回归树上下文特征自动编码的偏置张量分解方法,设计合理,克服了现有技术的不足,具有良好的效果。
为了实现上述目的,本发明采用如下技术方案:
一种基于回归树上下文特征自动编码的偏置张量分解方法,包括如下步骤:
步骤1:输入:b,U,V,C,λ,α;
其中,b表示偏置信息,U表示用户特征矩阵,V表示物品特征矩阵,C表示上下文特征矩阵,λ表示正则化参数,α表示学习率;
步骤2:计算μ,bm,bi并构造{(feature1,target1),...,(featuren,targetn)};
其中,μ表示全局平均分,bm表示用户偏置,bi表示物品偏置,featuren表示训练样本n中的上下文特征,targetn为用户打分去掉全局平均分、用户偏置、物品偏置后剩余的部分;
步骤3:训练回归树T,构造新上下文特征;
步骤4:随机初始化bm,bi,bk,Um,Vi,Ck;
步骤5:当ymik∈Y′时,计算目标函数
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于山东科技大学,未经山东科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910416222.4/2.html,转载请声明来源钻瓜专利网。
- 上一篇:一种提高搜索效率的方法
- 下一篇:基于微表情识别的信息推送方法及相关装置





