专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果21个,建议您升级VIP下载更多相关专利
  • [发明专利]语言模型的训练方法、装置、介质及设备-CN202211280626.3有效
  • 丁思宇;王硕寰;赵晏彬;孙宇 - 北京百度网讯科技有限公司
  • 2022-10-19 - 2023-10-03 - G06F18/214
  • 本公开提供了一种语言模型的训练方法、装置、介质及设备,涉及人工智能技术领域,尤其涉及自然语言处理领域。实现方案为:获取样本文本和相应的样本标签;基于样本文本,获取第一分词序列和第二分词序列;将第一分词序列的多个分词输入到第一子模型中,以获得第一预测结果;将第二分词序列的多个分词输入到第二子模型中,以获得第二预测结果;基于第一预测结果和第二预测结果,计算第一损失函数;基于第一预测结果、第二预测结果和该样本数据相应的样本标签,计算第二损失函数;以及基于第一损失函数和第二损失函数,调整初始语言模型的至少一个参数,以获得语言模型。
  • 语言模型训练方法装置介质设备
  • [发明专利]大语言模型的训练方法、装置、设备和介质-CN202310814621.2在审
  • 丁思宇;王硕寰;赵晏彬;孙宇;田浩;吴华;王海峰 - 北京百度网讯科技有限公司
  • 2023-07-04 - 2023-09-29 - G06F18/214
  • 本公开提供了一种大语言模型的训练方法、装置、设备和介质,涉及人工智能技术领域,尤其涉及自然语言处理和深度学习等技术领域。该方法包括:获取大规模无监督文本数据;从大规模问答数据中提取多个问题答案对;基于多个问题答案对,构建弱监督指令数据,包括:针对多个问题答案对中的每一个问题答案对,将该问题答案对中的问题作为样本指令,并将该问题答案对中的答案作为与样本指令对应的真值回复数据,构建与该问题答案对对应的指令训练样本;以及基于与多个问题答案对各自对应的指令训练样本,构建弱监督指令数据;以及利用包括大规模无监督文本数据和弱监督指令数据的混合训练数据,对大语言模型进行预训练。
  • 语言模型训练方法装置设备介质
  • [发明专利]自然语言生成方法和装置-CN202010297512.4有效
  • 俞凯;赵晏彬 - 思必驰科技股份有限公司
  • 2020-04-15 - 2023-08-01 - G06F40/205
  • 本发明公开一种自然语言生成方法和装置,其中,方法包括:接收AMR图以及与所述AMR图对应的线图,将所述AMR图和所述线图作为编码器的输入;在所述编码器中,使用图神经网络对所述AMR图和所述线图分别进行编码,其中,在使用所述图神经网络编码的过程中融入所述AMR图的高阶邻接信息,所述高阶邻接信息的阶数大于1;编码完成后,使用解码器解析出与所述AMR图对应的自然语言中的每一个词。本申请实施例的方案由于在编码时,非直接相邻节点之间的关系在编码时也会被考虑其中,使得模型可以更好地发掘AMR图中的信息。
  • 自然语言生成方法装置
  • [发明专利]BERT模型的优化方法及系统-CN202010895250.1有效
  • 俞凯;金乐盛;陈露;赵晏彬;陈志;朱苏 - 思必驰科技股份有限公司
  • 2020-08-31 - 2023-06-23 - G06F40/30
  • 本发明实施例提供一种BERT模型的优化方法。该方法包括:通过BERT模型确定由待推理的句子对拆分的子词序列中每个子词的第一上下文嵌入;通过语义表示语言解析器,确定句子对的语义表示图,提取句子对的语义特征;将句子对的语义特征确定为第一上下文嵌入的辅助信息,确定带有语义特征的第二上下文嵌入;基于带有语义特征的第二上下文嵌入,预测句子对中的两个句子的包含关系。本发明实施例还提供一种BERT模型的优化系统。本发明实施例在自然语言推理的语言模型中,为上下文嵌入辅助高层次的语义信息以及语法信息,使训练后的语言模型对语义信息更加敏感,大大提高了自然语言推理任务的性能。
  • bert模型优化方法系统
  • [发明专利]文本生成模型的训练方法、文本获取方法及装置-CN202211417275.6在审
  • 丁思宇;赵晏彬;王硕寰;孙宇 - 北京百度网讯科技有限公司
  • 2022-11-11 - 2023-04-04 - G06V30/164
  • 本公开提出了一种文本生成模型的训练方法、文本获取方法及装置,涉及自然语言处理和深度学习等人工智能领域,方法包括基于原始文本对初始文本生成模型进行训练,得到候选文本生成模型;对原始文本进行扰动,以获取原始文本的噪声文本;获取原始文本和噪声文本的字符映射关系;根据原始文本、噪声文本和字符映射关系,对候选文本生成模型进行训练,以得到训练好的目标文本生成模型。本公开中,提高了目标文本生成模型输出的文本内容与人们惯用的阅读习惯之间的适配度,优化了人们的阅读体验,提高了目标文本生成模型在重复文本内容生成场景下的鲁棒性,优化了文本生成模型的实用性和适用性。
  • 文本生成模型训练方法获取装置
  • [发明专利]预训练模型的微调方法及其装置-CN202211502211.6在审
  • 尚骏远;赵晏彬;丁思宇;王硕寰;孙宇 - 北京百度网讯科技有限公司
  • 2022-11-28 - 2023-04-04 - G06N3/04
  • 本公开提供了预训练模型的微调方法及装置,涉及深度学习领域,尤其涉及模型处理技术领域。该方法包括:确定预训练模型,预训练模型包括N层Transformer层和N层全连接层,每层Transformer层分别连接至一层全连接层,每层全连接层对应的参数基于Transformer层的参数确定;基于预训练数据库确定目标下游任务对应的提示词;将提示词和目标下游任务对应的输入文本输入至预训练模型得到输出结果,基于输出结果计算损失值,基于损失值更新N层全连接层对应的参数。本公开可有效继承预训练阶段多任务知识,提升小样本任务的收敛速度与效果,提升模型的建模能力,可建模难度更大的生成任务,提升模型训练的稳定性,解决了大模型无法收敛的问题,且部署开发难度和部署成本均较低。
  • 训练模型微调方法及其装置
  • [发明专利]用于处理文本的神经网络的训练方法和处理文本的方法-CN202211414756.1在审
  • 丁思宇;赵晏彬;王硕寰;孙宇 - 北京百度网讯科技有限公司
  • 2022-11-11 - 2023-02-24 - G06F40/186
  • 本公开提供了用于处理文本的神经网络的训练方法、处理文本的方法、装置和设备,涉及人工智能领域,具体为深度学习、机器学习、自然语言处理技术领域。用于处理文本的神经网络的训练方法包括:基于多个改写模板对至少一个第一样本文本句进行改写,以得到多个第一改写文本句,其中,多个改写模板被配置为使用不同的自然语言表达描述对待改写的第一样本文本句的句向量表示的抽取,以得到对应的第一改写文本句;利用神经网络对多个第一改写文本句中的每一个第一改写文本句进行处理,以得到与该第一改写文本句对应的第一样本文本句的句向量表示;以及基于至少一个第一样本文本句各自的句向量表示,调整神经网络的参数,以得到预训练的神经网络。
  • 用于处理文本神经网络训练方法
  • [发明专利]用于自然语言处理领域中预训练模型的训练方法及其装置-CN202211300765.8在审
  • 丁思宇;王硕寰;赵晏彬;孙宇 - 北京百度网讯科技有限公司
  • 2022-10-21 - 2023-02-03 - G06F40/30
  • 本公开提供了一种用于自然语言处理领域中预训练模型的训练方法及其装置,涉及人工智能领域,具体涉及自然语言处理、深度学习技术,可应用在自然语言处理(如文本分类、文本识别等)下游任务场景下。具体实现方案为:获取样本文本和样本文本的负例样本文本;将样本文本按照字词混合粒度进行切分处理,获得第一切分文本和第二切分文本;其中,第一切分文本的字词混合粒度区别于第二切分文本的字词混合粒度;基于负例样本文本、第一切分文本和第二切分文本,生成对比学习任务的正例对和负例对;基于对比学习任务的正例对和负例对,对预训练模型进行对比学习训练。本公开不仅可以带来更丰富的语义信息,还可以降低建模时的文本长度,减小模型训练时间和成本。
  • 用于自然语言处理域中训练模型方法及其装置

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top