[发明专利]语言模型的训练方法及装置有效
| 申请号: | 201910739984.8 | 申请日: | 2019-08-12 |
| 公开(公告)号: | CN110619120B | 公开(公告)日: | 2021-03-02 |
| 发明(设计)人: | 王帅;唐文忠;陈梦东;宋嘉钰 | 申请(专利权)人: | 北京航空航天大学 |
| 主分类号: | G06F40/30 | 分类号: | G06F40/30;G06F16/35;G06F16/33;G06N3/04;G06N3/08 |
| 代理公司: | 北京路浩知识产权代理有限公司 11002 | 代理人: | 张秀程 |
| 地址: | 100191*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 语言 模型 训练 方法 装置 | ||
1.一种语言模型的训练方法,其特征在于,包括:
获取语料;
将语料中的每个字作为目标字,获取每个目标字的笔画序列和义元信息;
根据每个目标字的笔画序列、义元信息以及标签训练所述语言模型;
其中,所述标签用于表征所述目标字在语料中的后一个字;
所述语言模型包括第一神经网络模型、第二神经网络模型和第三神经网络模型;
相应地,所述根据每个目标字的笔画序列、义元信息以及标签训练所述语言模型,具体为:
将每个目标字的笔画序列输入至所述第一神经网络模型,输出每个目标字的笔画特征;
将每个目标字的义元信息,连同每个目标字的笔画特征一并输入至所述第二神经网络模型,输出每个目标字的字向量;
将每个目标字的字向量连同标签一并输入至所述第三神经网络模型,根据所述第三神经网络模型的输出,训练所述语言模型。
2.根据权利要求1所述的语言模型的训练方法,其特征在于,所述获取每个目标字的笔画序列,具体为:
获取每种笔画的多维度特征;
获取每个目标字的所有笔画,根据每种笔画的多维度特征,获得所述目标字的笔画序列。
3.根据权利要求1所述的语言模型的训练方法,其特征在于,所述第一神经网络包括若干种不同大小的卷积核,每种卷积核的数目预先确定;
相应地,所述将每个目标字的笔画序列输入至所述第一神经网络模型,输出每个目标字的笔画特征,具体为:
对于任意一个目标字,将所述目标字的笔画序列输入至每个卷积核,输出特征映射图;
根据所有卷积核输出的特征映射图,输出每个目标字的笔画特征。
4.根据权利要求3所述的语言模型的训练方法,其特征在于,所述第一神经网络还包括池化层;
所述根据所有卷积核输出的特征映射图,输出每个目标字的笔画特征,具体为:
将所有卷积核输出的特征映射图输入至池化层,输出由每个特征映射图中的最大值链接而成的向量,作为目标字的笔画特征。
5.根据权利要求1所述的语言模型的训练方法,其特征在于,所述第二神经网络模型包括平均策略层和第一拼接层;
相应地,所述将每个目标字的义元信息,连同每个目标字的笔画特征一并输入至所述第二神经网络模型,输出每个目标字的字向量,具体为:
将每个目标字的义元信息输入所述平均策略层,输出所述目标字的所有意思信息以及目标字的第一语义信息,所述第一语义信息为目标字的所有意思信息的平均值;
将所述每个目标字的第一语义信息与笔画特征输入至第一拼接层进行拼接,获得所述每个目标字的字向量。
6.根据权利要求1所述的语言模型的训练方法,其特征在于,所述第二神经网络模型包括双向LSTM层、关注策略层以及第二拼接层;
相应地,所述将每个目标字的义元信息,连同每个目标字的笔画特征一并输入至所述第二神经网络模型,输出每个目标字的字向量,具体为:
将所有目标字的笔画特征输入至所述双向LSTM层,输出每个目标字的上下文信息;
将每个目标字的义元信息以及上下文信息输入关注策略层,输出所述每个目标字的第二语义信息;
将每个目标字的第二语义信息和笔画特征输入至第二拼接层进行拼接,输出每个目标字的字向量。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京航空航天大学,未经北京航空航天大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910739984.8/1.html,转载请声明来源钻瓜专利网。





