[发明专利]一种基于深度强化学习的推荐算法在审
申请号: | 201811070447.0 | 申请日: | 2018-09-13 |
公开(公告)号: | CN109471963A | 公开(公告)日: | 2019-03-15 |
发明(设计)人: | 陈曦;蓝志坚;余智君;陈卓 | 申请(专利权)人: | 广州丰石科技有限公司 |
主分类号: | G06F16/951 | 分类号: | G06F16/951;G06Q30/06 |
代理公司: | 广州粤高专利商标代理有限公司 44102 | 代理人: | 林丽明 |
地址: | 510507 广东省广州市天河区元*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 神经网络 算法 强化学习 网络结构模型 传统机器 购物行为 交易行为 历史数据 模型参数 外部条件 训练模型 自我学习 最优模型 构建 网站 预测 更新 积累 优化 学习 | ||
1.一种基于深度强化学习的推荐算法,其特征在于,它包括以下步骤:
S1:初始化经验池,设置其容量W,经验池是商品推荐动作的集合,用于存储训练样本,开始训练之前经验池为空;
S2:建立MainNet神经网络,并对其进行初始化,所述的MainNet神经网络是主神经网络,用于得到推荐列表;
S3:建立TargetNet神经网络,并对其进行初始化,所述的TargetNet神经网络用于训练模型参数,得到最优模型参数;
S4:设定训练片段总数M;
S5:依据t时刻用户最近浏览的N个商品,初始化当前状态st,若用户最近浏览的商品为空,以N个热门商品代替;
S6:当前状态st作为MainNet神经网络的输入,得到当前状态st下可选动作的Q值列表Q(st,at,θu),其中,st是当前状态,at是执行动作,θu是MainNet神经网络的参数;
S7:根据执行动作at,用户按照自己的兴趣进行点击/购买/忽略后,计算奖赏rt和下一状态st+1;
S8:将商品推荐动作集合(st,at,rt,st+1)存入经验池中;
S9:循环执行步骤S6-S8,直至经验池中存放着W个训练数据;
S10:随机从经验池中取出M个训练数据,将训练数据中的每一个下一状态st+1作为TargetNet神经网络的输入,得到下一状态st+1下可选动作的Q值列表Q(st+1,at+1,θu′);
S11:更新MainNet神经网络的参数θu;
S12:每经过C轮迭代,其中C为预设的迭代数值,将MainNet神经网络的参数复制给TargetNet神经网络。
2.根据权利要求1所述的一种基于深度强化学习的推荐算法,其特征在于,步骤S2中所述的初始化包括:初始化参数θu,输入为当前状态st,输出为当前状态st下可选动作的Q值列表Q(st,at,θu)。
3.根据权利要求2所述的一种基于深度强化学习的推荐算法,其特征在于,所述的当前状态st表示如下:
其中,是t时刻用户最近浏览的第i个商品,sex是用户的性别,holiday、month、day、weather分别是节假日、当前时间段、时间、天气。
4.根据权利要求1所述的一种基于深度强化学习的推荐算法,其特征在于,步骤S3中所述的初始化包括:初始化参数θu′,输入为下一状态st+1,输出为下一状态st+1下可选动作的Q值列表Q(st+1,at+1,θu′)。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广州丰石科技有限公司,未经广州丰石科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811070447.0/1.html,转载请声明来源钻瓜专利网。