[发明专利]一种文章标题优化方法、系统、介质及设备在审

专利信息
申请号: 201911015125.0 申请日: 2019-10-24
公开(公告)号: CN110795930A 公开(公告)日: 2020-02-14
发明(设计)人: 张莹;闫成;周明智 申请(专利权)人: 网娱互动科技(北京)股份有限公司
主分类号: G06F40/258 分类号: G06F40/258;G06F40/284;G06F40/216;G06N3/04;G06N3/08
代理公司: 暂无信息 代理人: 暂无信息
地址: 100192 北京市海淀区北京*** 国省代码: 北京;11
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 分词结果 优化 文章标题 相似度 输入神经网络 训练神经网络 技术获取 客观反映 数据抓取 训练样本 分词 文本 输出 参考 撰写 应用
【说明书】:

发明涉及一种文章标题优化方法、系统、介质及设备。该方法包括:通过数据抓取技术获取标题;将获取的标题按照设定指标划分为优秀标题和普通标题,建立优秀标题库和普通标题库;将待优化标题和获取的标题的文本进行分词;使用优秀标题的分词结果和普通标题的分词结果作为训练样本训练神经网络模型;将所有分词结果输入神经网络模型,得到每个标题对应的评分;计算获取的标题的评分的平均分;若待优化标题的评分低于平均分,则分别计算待优化标题与优秀标题的相似度;输出相似度排在前N位的优秀标题,作为修改待优化标题时的参考标题。本发明能够客观反映该标题的好坏,大大缩短了文章标题的撰写时间,并且在各行各业都能广泛应用。

技术领域

本发明涉及文本处理领域,具体涉及一种文章标题优化方法、系统、介质及设备。

背景技术

目前,目前市面上对标题的优化工具,只是提供标题库参考和标题党常用词展示,这种优化方式只能对好标题进行定性的判别,无法对标题好坏进行分数化排序,这样首先会导致对标题好坏的评价过于主观,无法满足各行各业的广泛需求,其次也就无法对标题进行不断改善,并且撰写标题的时间较长。

发明内容

针对上述技术问题,本发明提供一种文章标题优化方法、系统、介质及设备。

本发明解决上述技术问题的技术方案如下:一种文章标题优化方法,包括:

通过数据抓取技术获取标题;

将获取的标题按照设定指标划分为优秀标题和普通标题,建立优秀标题库和普通标题库;

将待优化标题和获取的标题的文本进行分词;

使用优秀标题的分词结果和普通标题的分词结果作为训练样本训练神经网络模型;

将所有分词结果输入所述神经网络模型,得到每个标题对应的评分;

计算获取的标题的评分的平均分;

若待优化标题的评分低于平均分,则分别计算所述待优化标题与优秀标题的相似度;

输出相似度排在前N位的优秀标题,作为修改所述待优化标题时的参考标题。

本发明的有益效果是:通过收集大量标题数据,建立优秀标题库和普通标题库,并基于这些数据进行建模,任何一个需要评估的标题出现后,系统即可基于神经网络模型对该标题进行打分,能够客观反映该标题的好坏,然后基于该标题与优秀标题的相近程度给出可供参考的优秀标题,以便使用者借鉴优秀标题的写法对标题进行修改,大大缩短了文章标题的撰写时间,并且在各行各业都能广泛应用。

在上述技术方案的基础上,本发明还可以做如下改进。

进一步,所述将获取的标题按照设定指标划分为优秀标题和普通标题,具体包括:

将文章阅读数和/或评论数超过预设值的文章的标题划分为优秀标题,否则划分为普通标题。

进一步,所述将所有分词结果输入所述神经网络模型,得到每个标题对应的评分,具体包括:

将分词之后获得的词及词组合分别输入优秀标题库和普通标题库进行比对,得到相应的分值,把所有的分值按照神经网络算法进行计算,得到标题评分。

进一步,还包括:

当所述优秀标题库和普通标题库中的标题发生变化时,重新训练神经网络模型。

为实现上述发明目的,本发明还提供一种文章标题优化系统,包括:

获取模块,用于通过数据抓取技术获取标题;

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于网娱互动科技(北京)股份有限公司,未经网娱互动科技(北京)股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201911015125.0/2.html,转载请声明来源钻瓜专利网。

同类专利
  • 生成用于概括对话文件的标题的系统和方法-201910167062.4
  • 弗朗辛·陈;赵健;Y·Y·陈 - 富士施乐株式会社
  • 2019-03-06 - 2020-02-14 - G06F40/258
  • 提供了生成用于概括对话文件的标题的系统和方法。该方法包括以下步骤:接收多个文件,各文件具有关联内容特征;向多个文件中的各文件应用标题生成计算机模型,以基于关联内容特征生成标题;将所生成的标题附加到多个文件中的各文件,其中,标题生成计算机模型是通过使用以下内容的组合训练神经网络来创建的:来自与多个文件的内容特征有关的第一域的第一未标记数据集;和来自与第一域不同的第二域的第二预标记数据集。
  • 一种文章标题优化方法、系统、介质及设备-201911015125.0
  • 张莹;闫成;周明智 - 网娱互动科技(北京)股份有限公司
  • 2019-10-24 - 2020-02-14 - G06F40/258
  • 本发明涉及一种文章标题优化方法、系统、介质及设备。该方法包括:通过数据抓取技术获取标题;将获取的标题按照设定指标划分为优秀标题和普通标题,建立优秀标题库和普通标题库;将待优化标题和获取的标题的文本进行分词;使用优秀标题的分词结果和普通标题的分词结果作为训练样本训练神经网络模型;将所有分词结果输入神经网络模型,得到每个标题对应的评分;计算获取的标题的评分的平均分;若待优化标题的评分低于平均分,则分别计算待优化标题与优秀标题的相似度;输出相似度排在前N位的优秀标题,作为修改待优化标题时的参考标题。本发明能够客观反映该标题的好坏,大大缩短了文章标题的撰写时间,并且在各行各业都能广泛应用。
  • 一种文档主题生成方法和装置-201611089622.1
  • 董从娇;龚珊珊;滕一勤 - 北京先进数通信息技术股份公司
  • 2016-11-30 - 2020-02-07 - G06F40/258
  • 本发明实施例提供了一种文档主题生成方法和装置。所述方法包括:对文档集合的文档进行分词并提取出词语,统计表征所有提取的词语中两两之间的语义相关性的词间关系数据,统计表征每个词语在每个文档中的重要性的词语文档关系数据,迭代更新所述文档主题关系数据、词语主题关系数据和调整因子达到设定结束条件,以迭代更新得到的词语主题关系数据生成文档集合的文档主题。由此本发明使得最后生成的词语主题关系数据由词语文档关系数据和词间关系数据共同约束,实现了文档主题生成过程兼顾词语之间的语义关系,提高了文档主题生成的准确性。
  • 一种用于生成标题的神经网络建模方法及装置-201610916422.2
  • 孙茂松;阿雅娜;刘知远 - 清华大学
  • 2016-10-20 - 2020-01-31 - G06F40/258
  • 本发明实施例公开了一种用于生成标题的神经网络建模方法及装置。该用于生成标题的神经网络建模方法包括:获取多个样本文档,以及各样本文档对应的标准标题;将各样本文档输入至所述待优化模型中,由所述待优化模型根据接收到的各样本文档输出与各样本文档对应的参考标题;对各样本文档对应的参考标题和标准标题进行匹配处理,以获取参考标题和标准标题之间的语义差距;根据各样本文档对应的语义差距对所述待优化模型中的目标参数进行优化。本发明实施例基于参考标题和标准标题之间的语义差距,从句子级别对待优化模型中的参数进行优化,与仅在词级别优化待优化模型的现有技术相比,具有提高模型稳定性、提高标题生成准确度的优点。
  • 基于人工智能的文章主旨提取方法、装置及计算机可读存储介质-201910826795.4
  • 陈一峰;周骏红;汪伟 - 平安科技(深圳)有限公司
  • 2019-09-02 - 2020-01-17 - G06F40/258
  • 本发明涉及一种人工智能技术,揭露了一种基于人工智能的文章主旨提取方法,包括:接收文本数据集,对所述文本数据集进行包括词语切分及合并操作得到单词文本集,将所述单词文本集进行编码操作后转为单词矩阵集,将所述单词矩阵集输入至词向量转化模型中训练得到单词向量集,将所述单词向量集进行降维操作后输入至卷积神经网络模型中训练,将所述用户输入的文本数据转为单词向量后输入至完成训练的所述卷积神经网络模型中得到文章主旨并输出。本发明还提出一种基于人工智能的文章主旨提取装置以及一种计算机可读存储介质。本发明可以实现精准高效的基于人工智能的文章主旨提取功能。
专利分类
×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top