[发明专利]应用程序预测模型建立、预加载方法、装置、介质及终端在审
申请号: | 201711158976.1 | 申请日: | 2017-11-20 |
公开(公告)号: | CN109814938A | 公开(公告)日: | 2019-05-28 |
发明(设计)人: | 陈岩 | 申请(专利权)人: | 广东欧珀移动通信有限公司 |
主分类号: | G06F9/445 | 分类号: | G06F9/445;G06N3/08 |
代理公司: | 北京品源专利代理有限公司 11332 | 代理人: | 孟金喆 |
地址: | 523860 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 应用程序 时序 关联记录 预测模型 用户行为 预加载 样本 神经网络模型 应用程序使用 预测模型训练 终端 内存占用率 预设时间段 终端系统 功耗 预设 申请 分组 预测 优化 | ||
本申请实施例公开了应用程序预测模型建立、预加载方法、装置、介质及终端。应用程序预测模型建立方法包括:获取预设时间段内的用户行为样本,其中,用户行为样本包括至少两个应用程序的使用时序关联记录;对使用时序关联记录进行分组,得到多组使用时序关联记录;根据多组使用时序关联记录,对预设LSTM神经网络模型进行训练,生成应用程序预测模型。本申请实施例通过采用上述技术方案,可以充分利用能够真实反映用户行为的应用程序使用时序关联记录,优化应用程序预加载机制,有效提高了应用程序预测模型训练的精度,提高对待启动应用程序预测的准确性,进一步降低了终端系统功耗和内存占用率。
技术领域
本申请实施例涉及机器学习技术领域,尤其涉及应用程序预测模型建立、预加载方法、装置、介质及终端。
背景技术
随着电子技术的快速发展和人们生活水平的日益提高,智能手机、平板电脑等终端已经成为人们生活中必不可少的一部分。
终端上设置有各种各样的应用程序(Application Software,APP),为了使应用程序运行的更加流畅,通常终端会将提前将某些应用程序的加载资源准备好,即对某些应用程序提前进行预加载。
但是,不能对应用程序进行随意预加载,因为若预加载太多资源,则会占用过大内存,同时功耗变大,会严重影响终端使用的流畅性。因此,优化预加载机制、降低终端功耗变得至关重要。
发明内容
本申请实施例提供应用程序预测模型建立、预加载方法、装置、介质及终端,可以优化应用程序的预加载机制,降低终端系统功耗。
第一方面,本申请实施例提供了一种应用程序预测模型建立方法,包括:
获取预设时间段内的用户行为样本,其中,所述用户行为样本包括至少两个应用程序的使用时序关联记录;
对所述使用时序关联记录进行分组,得到多组使用时序关联记录;
根据所述多组使用时序关联记录,对预设长短期记忆神经网络(Long Short-TermMemory Neural Netwoke,LSTM神经网络)模型进行训练,生成应用程序预测模型。
第二方面,本申请实施例提供了一种应用程序预加载方法,包括:
获取t时刻终端运行应用程序的使用状态及t-1时刻至t-n时刻对应的终端运行应用程序的使用状态,其中,n为大于等于2的自然数;
将所述使用状态输入至预先训练的应用程序预测模型中,获取所述应用程序预测模型输出的应用程序启动的概率值,其中,所述应用程序预测模型由多组使用时序关联记录基于预设LSTM神经网络模型训练生成,多组使用时序关联记录是对预设时间段内应用程序的使用时序关联记录进行分组得到的;
根据所述概率值确定t+1时刻对应的待启动应用程序,并将所述待启动应用程序进行预加载。
第三方面,本申请实施例提供了一种应用程序预测模型建立装置,该装置包括:
用户行为样本获取模块,用于获取预设时间段内的用户行为样本,其中,所述用户行为样本包括至少两个应用程序的使用时序关联记录;
使用时序关联记录分组模块,用于对所述使用时序关联记录进行分组,得到多组使用时序关联记录;
应用程序预测模型生成模块,用于根据所述多组使用时序关联记录,对预设LSTM神经网络模型进行训练,生成应用程序预测模型。
第四方面,本申请实施例提供了一种应用程序预加载装置,该装置包括:
使用状态获取模块,用于获取t时刻终端运行应用程序的使用状态及t-1时刻至t-n时刻对应的终端运行应用程序的使用状态,其中,n为大于等于2的自然数;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广东欧珀移动通信有限公司,未经广东欧珀移动通信有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711158976.1/2.html,转载请声明来源钻瓜专利网。