[发明专利]一种基于语句关系的词向量训练方法有效
| 申请号: | 201911102317.5 | 申请日: | 2019-11-12 |
| 公开(公告)号: | CN110852072B | 公开(公告)日: | 2023-04-07 |
| 发明(设计)人: | 谢梓莹;潘嵘 | 申请(专利权)人: | 中山大学 |
| 主分类号: | G06F40/211 | 分类号: | G06F40/211;G06F40/284;G06F16/33;G06F16/35;G06N3/048;G06N3/08 |
| 代理公司: | 广州粤高专利商标代理有限公司 44102 | 代理人: | 陈伟斌 |
| 地址: | 510275 广东*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 语句 关系 向量 训练 方法 | ||
1.一种基于语句关系的词向量训练方法,其特征在于,包括如下步骤:
步骤一:将训练数据集中的所有单词挑出并编号,并建立单词表;训练数据集中的每个单词对应一个数字编号;
步骤二:将若干组句子组作为训练样本,句子组包括两个句子和两个句子的关系,将句子中的单词进行编号,将两个句子的关系转换为数字标签;句子中的单词的编号对应单词表中的单词编号;在两个句子之间插入一个代表句子间隔的符号;在两个句子的开头插入一个代表任务类型的分类符号;
步骤三:将句子单词进行编号后,输入对应的词嵌入向量,对每个单词都设置维度向量表达;
步骤四:将embedding得到的维度向量输入自注意力算法中非线性映射的transformer算法;self-attention中非线性计算矩阵K、Q、V矩阵的非线性方法是神经网络,神经网络的计算方式为:
其中,reLu(·)代表激活函数,n代表神经网络的层数;x代表单词的嵌入向量;WK,WQ,WV,分别是算法提取K、Q、V矩阵的矩阵参数;bK,bQ,bV代表算法提取K、Q、V矩阵的矩阵偏置;gK(x),gQ(x),gV(x)代表算法提取K、Q、V矩阵的每一层神经网络的计算函数;代表算法提取K、Q、V矩阵的n层神经网络计算函数;
步骤五:最后一层的第一个transformer输出向量经过全连接层输出句子关系的数字标签;
步骤六:通过迭代训练得到算法框架的参数,预训练阶段得到模型参数,提取了相关的句子结构;在进行下一阶段的任务时,以预训练得到的参数为基础,再结合具体任务数据进行训练预测下游任务标签。
2.根据权利要求1所述的一种基于语句关系的词向量训练方法,其特征在于,在所述步骤二中,数字标签为通过数字标注两个句子间的关系。
3.根据权利要求1所述的一种基于语句关系的词向量训练方法,其特征在于,在所述步骤三中,单词的维度向量包括单词位置关系向量、句子关系向量和单词间关系向量。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中山大学,未经中山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911102317.5/1.html,转载请声明来源钻瓜专利网。





