[发明专利]大规模预训练语言模型的构建方法、装置、存储介质及电子装置在审
申请号: | 202310268876.3 | 申请日: | 2023-03-15 |
公开(公告)号: | CN116432693A | 公开(公告)日: | 2023-07-14 |
发明(设计)人: | 肖熊锋;杜向阳 | 申请(专利权)人: | 北京擎盾信息科技有限公司 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08;G06F18/214;G06F16/35;G06Q50/18 |
代理公司: | 北京知果之信知识产权代理有限公司 11541 | 代理人: | 苏利 |
地址: | 100071 北京市丰台区南四环西路1*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本申请公开了一种大规模预训练语言模型的构建方法、装置、存储介质及电子装置。该构建方法包括:接收裁判文书;按不同法律领域对所述裁判文书进行分类;对分类结果执行预设的预处理并标注操作,得到多个类别的裁判文书训练集;针对不同法律领域维护一个独立的Prefix并基于所述裁判文书训练集对语言模型进行预训练,得到针对特定法律领域的预训练语言模型。本申请解决了由于未考虑不同法律领域的文本之间的差异性造成的预训练语言模型无法有效识别不同领域的关键信息的技术问题。 | ||
搜索关键词: | 大规模 训练 语言 模型 构建 方法 装置 存储 介质 电子 | ||
【主权项】:
暂无信息
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京擎盾信息科技有限公司,未经北京擎盾信息科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/202310268876.3/,转载请声明来源钻瓜专利网。