[发明专利]一种基于MSP-GEP-Elman算法的实时短视频用户画像预测方法及系统在审
申请号: | 202210264370.0 | 申请日: | 2022-03-17 |
公开(公告)号: | CN114462583A | 公开(公告)日: | 2022-05-10 |
发明(设计)人: | 周子杭;赵加坤 | 申请(专利权)人: | 江苏至信信用评估咨询有限公司 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/00;G06N3/12;G06F16/78;G06V40/16;G06K9/62 |
代理公司: | 西安通大专利代理有限责任公司 61200 | 代理人: | 张宇鸽 |
地址: | 221000 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 msp gep elman 算法 实时 视频 用户 画像 预测 方法 系统 | ||
1.一种基于MSP-GEP-Elman算法的实时短视频用户画像预测方法,其特征在于,包括:
步骤1:设定Elman神经网络的初始权值和阈值;
步骤2:基于MSP-GEP算法,Spark分布式计算集群的master节点;
步骤3:分发基于master节点生成不同的随机种子到不同的worker节点,初始化MSP-GEP种群内的所有个体;并将Elman神经网络的初始权值和阈值映射到种群内个体的基因上,对每个个体都进行编码;
步骤4:对MSP-GEP种群内的所有个体进行进化迭代,丰富种群内多样性;
步骤5:判断种群内多样性是否大于阈值;若是,进行步骤6;若否,基于镜像重置策略,对劣质个体进行替代,进行步骤6;
步骤6:基于克隆对比策略,筛选种群中适应度值最大的若干个个体进行处理,提高种群的最大适应度值;
步骤7:判断局部迭代次数是否大于设定的最大值K1时,若是,每个worker节点选出最优个体发送给master节点;若否,重复步骤4~步骤7;
步骤8:对比所有局部最优个体的适应度,筛选出适应度值最大的个体作为整个Spark分布式计算集群的全局最优个体以及全局最优个体对应的worker节点编号i,然后将全局最优个体和编号i发送到所有worker节点;
步骤9:对比worker节点自身编号与编号i,如果相等,则将自身最差个体替换为全局最优个体,反之,不进行任何操作;
步骤10:当全局迭代次数到达设定的最大值K2时,结束迭代流程,否则,重复步骤4~步骤10;
步骤11:将MSP-GEP的全局最优个体传递给Elman神经网络进行二次初始化,即作为全局最优个体开始训练的初始权值和阈值;
步骤12:基于Elman神经网络的学习算法对全局最优个体进行训练,直到Elman神经网络的输出误差小于期望误差时即为训练完成。
2.根据权利要求1所述的基于MSP-GEP-Elman算法的实时短视频用户画像预测方法,其特征在于,所述将Elman神经网络的初始权值和阈值映射到种群内个体的基因上,对每个个体都进行编码,具体为:由Elman神经网络的权值和阈值w1、w2、w3、b1、b2五个部分按照先后顺序组成的向量。
3.根据权利要求1所述的基于MSP-GEP-Elman算法的实时短视频用户画像预测方法,其特征在于,所述对MSP-GEP种群内的所有个体进行进化迭代,包括:各个worker节点同时进行计算适应度值、选择、复制、转座、重组和变异。
4.根据权利要求3所述的基于MSP-GEP-Elman算法的实时短视频用户画像预测方法,其特征在于,所述种群内个体的适应度值表达式如公式(1)所示:
式中:yk(w)为原始输出向量;为目标输出向量。
5.根据权利要求4所述的基于MSP-GEP-Elman算法的实时短视频用户画像预测方法,其特征在于,所述镜像重置策略具体为:
5.1、分别计算理想种群的熵Hl和当前种群的熵Hp;
5.2、将种群的局部最大迭代次数K1平均划分为三个等级,并设置每个等级所对应的阈值;
5.3、将理想种群的熵Hl与每个等级所对应的阈值分别相乘,获取每个等级的理想种群的阈值;
5.4、判断当前种群的熵Hp是否小于每个等级的理想种群的阈值;若是,进行步骤5.6;若否,进行步骤5.5;
5.5、计算种群内所有个体的适应度值,并筛选出适应度值最小的m个个体和在剩余的个体中适应度值最小的n个个体;
5.6、随机产生m个个体来替代适应度值最小的m个个体,使用n个镜像个体来替代在剩余的个体中适应度值最小的n个个体,并将种群中个体内的函数集的各个运算符替代为其镜像。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于江苏至信信用评估咨询有限公司,未经江苏至信信用评估咨询有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210264370.0/1.html,转载请声明来源钻瓜专利网。