[发明专利]一种利用微调和重排序策略的情感可控回复生成方法有效
申请号: | 202110450102.3 | 申请日: | 2021-04-25 |
公开(公告)号: | CN113139042B | 公开(公告)日: | 2022-04-29 |
发明(设计)人: | 杜宝祥;马志强;王春喻;贾文超 | 申请(专利权)人: | 内蒙古工业大学 |
主分类号: | G06F16/332 | 分类号: | G06F16/332;G06F16/33;G06F16/338;G06N3/04;G06N3/08 |
代理公司: | 西安智大知识产权代理事务所 61215 | 代理人: | 段俊涛 |
地址: | 010080 内蒙古自治区呼*** | 国省代码: | 内蒙古;15 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 利用 微调 排序 策略 情感 可控 回复 生成 方法 | ||
一种利用微调和重排序策略的情感可控回复生成方法,利用微调算法对大规模开放域语言预训练模型GPT‑2进行训练,即,使用带有情感类别标签的开放领域多轮对话语料训练GPT‑2,通过将对话语句与其对应情感类别标签混合训练的方式,使语言模型学习语义和情感的依赖关系,得到EmoGPT模型,利用EmoGPT模型,根据指定的情感类别标签,将生成的K个回复进行情感重排序,得到最终的生成回复,本发明解决了多轮对话情况下由于对话生成模型中缺乏情感控制方法导致的生成回复的情感与指定情感不一致的问题,实现了多轮对话的情感可控回复生成,提高了对话生成回复的情感一致性。
技术领域
本发明属于人工智能技术领域,涉及情感对话生成,特别涉及一种利用微调和重排序策略的情感可控回复生成方法。
背景技术
对话生成是指根据给定的对话上文,模型逐字或逐词生成回复语句。对于生成的回复语句最基本的要求是语法正确且语言表达自然流畅。情感对话生成则对模型生成的回复语句进行了更高的要求,除符合基本的语法和语言表达要求外,还需要富有情感。生成回复的情感可控性是目前情感对话生成的重要研究方向。
以往的研究工作主要基于Seq2Seq模型,通过情感标签结合情感记忆、注意力机制、多任务学习和对抗学习等方式提升了对话模型生成回复的情感表达和控制能力。
传统的基于Seq2Seq的对话生成模型存在一些明显缺陷,如生成回复的信息量少,模型倾向于生成低质量的通用回复等。随着Transformer在自然语言处理领域的卓越表现,基于Transformer的语言模型在自然语言生成类任务中得到广泛应用,并取得了良好的性能表现,GPT-2(Generative Pre-trained Transformer,生成式的预训练Transformer)是最典型的模型之一。GPT-2在开放领域多轮对话的应用使得语言质量和内容相关性和多样性等方面均有显著提升,能够极大地缓解传统Seq2Seq模型的安全回复问题。然而,对于基于GPT-2的多轮对话生成,回复情感的控制是一个亟待解决的问题,在多轮对话中准确控制生成回复的情感,对于未来对多轮对话的动态情感回复策略的研究是十分必要的。
发明内容
为了克服上述现有技术的缺点,本发明的目的在于提供一种利用微调和重排序策略的情感可控回复生成方法,该方法主要针对现有基于Seq2Seq模型容易出现信息量少,低质量的安全回复,对话生成模型中缺乏情感控制方法导致的生成回复的情感与指定情感不一致的问题,将“预训练+微调”策略应用在情感可控回复生成中。
为了实现上述目的,本发明采用的技术方案是:
一种利用微调和重排序策略的情感可控回复生成方法,包括:
步骤1,利用微调算法对大规模开放域语言预训练模型GPT-2进行训练,即,使用带有情感类别标签的开放领域多轮对话语料训练GPT-2,通过将对话语句与其对应情感类别标签混合训练的方式,使语言模型学习语义和情感的依赖关系,得到EmoGPT模型;
步骤2,利用EmoGPT模型,根据指定的情感类别标签将生成的K个回复进行情感重排序,得到最终的生成回复其中,T表示对话上下文中对话轮次,为第T轮对话中回复语句的第j个词,t为RT的序列长度,即第T轮对话中回复语句的词的数量,K可由用户指定。
所述大规模开放域语言预训练模型GPT-2是使用无情感标签的开放领域多轮对话语料训练得到的适用于开放领域多轮对话的语言模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于内蒙古工业大学,未经内蒙古工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110450102.3/2.html,转载请声明来源钻瓜专利网。