专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果16个,建议您升级VIP下载更多相关专利
  • [发明专利]一种社交网络图的处理方法-CN202310539720.4在审
  • 程学旗;郭嘉丰;范意兴;张儒清;廉涛;咸宁 - 中国科学院计算技术研究所
  • 2023-05-15 - 2023-08-04 - G06F16/9035
  • 本发明提供了一种社交网络图的处理方法,包括:获取包括第一社交网络图和第二社交网络图的待处理网络图,以及两个图对应的初始锚点对集合;针对所述第一社交网络图和所述第二社交网络图分别提取两个图的节点结构信息;根据所述两个图的节点结构信息采用启发式的过滤规则基于多种相似度计算方式从所述初始锚点对集合中筛选出满足预设相似性要求的初始锚点对,得到经过滤的初始锚点对集合,其中,至少部分相似度计算方式依据两个图中能表征邻居结构的相关特征来计算相似度;基于所述节点结构信息和所述经过滤的初始锚点对集合确定所述第一社交网络图和所述第二社交网络图中节点间的关联关系。
  • 一种社交网络图处理方法
  • [发明专利]基于BERT模型的文档关键词抽取方法及装置-CN202110142917.5有效
  • 程学旗;郭嘉丰;范意兴;张儒清;赵恒;马新宇 - 中国科学院计算技术研究所
  • 2021-02-02 - 2023-02-03 - G06F16/332
  • 一种基于BERT模型的文档关键词抽取方法,其包括以下步骤:将文档集合中的每篇文档通过BERT模型进行编码,并提取BERT模型生成的文档语义对每个子词的注意力权重;将子词还原成词语,并将子词的注意力权重聚合为词语的注意力权重;将文档中不同位置的同一词语的注意力权重聚合为词语的与位置无关的注意力权重,记为p(word_weight|doc);计算每个词语在文档集合上的注意力权重,记为p(word_weight|corpus);以及联合p(word_weight|doc)和p(word_weight|corpus),并选取N个最终注意力权重最高的词语作为文档关键词。该方法利用BERT模型提取文档语义表示来计算词语注意力权重分布,最终实现关键词的抽取,兼顾词语频率信息的同时,有效地解决传统无监督算法忽略语义问题,提高了关键词抽取的准确率和召回率。
  • 基于bert模型文档关键词抽取方法装置
  • [发明专利]一种构建文本分类系统的方法、系统、介质及电子设备-CN202010709070.X有效
  • 范意兴;郭嘉丰;袁浩达;张儒清;程学旗 - 中国科学院计算技术研究所
  • 2020-07-22 - 2023-01-24 - G06F16/35
  • 本发明实施例提供了种构建文本分类系统的方法、系统、介质及电子设备,该文本分类系统包括分句模块、句子级特征提取模块、篇章级特征提取模块和分类模块,该方法包括:A1、获取包括多个文本的训练集,所述训练集中的文本带有标记的所属类别,且其中至少部分文本是超长文本;A2、用分句模块根据预定义的分句规则对训练集中的每个文本进行分句以得到多个句子;A3、用所述训练集对文本分类系统的句子级特征提取模块、篇章级特征提取模块和分类模块进行多轮训练至收敛,得到文本分类系统;本发明减少了提取特征时丢失语义信息和结构信息的可能,最后根据文本的篇章特征用于后续的分类预测,提高了文本分类的准确率,尤其适用于对超长文本的准确分类。
  • 一种构建文本分类系统方法介质电子设备
  • [发明专利]一种实体召回方法及实体查询系统-CN202210974839.X在审
  • 郭嘉丰;范意兴;王苑铮;陈薇;张儒清;程学旗 - 中国科学院计算技术研究所
  • 2022-08-15 - 2023-01-06 - G06F16/33
  • 本发明实施例提供一种实体召回方法,包括:S1、获取待查询实体,利用预先训练的第一编码神经网络对待查询实体进行编码,得到待查询实体的多维浮点值查询向量;S2、将多维浮点值查询向量中每个维度的浮点值按照预设规则映射为非浮点的第一数值或者第二数值,得到多维二值查询向量;S3、根据待查询实体的多维二值查询向量在实体知识库选取部分规范实体生成召回的候选实体集合,其中所述实体知识库包括规范化命名的多个规范实体及按照与每个规范实体对应的多维二值实体向量。本发明将浮点值形式的向量转换为二值形式的向量,降低存储空间占用并提高计算效率。
  • 一种实体召回方法查询系统
  • [发明专利]一种语义匹配模型的训练方法以及文本匹配方法-CN202210991280.1在审
  • 程学旗;郭嘉丰;范意兴;张儒清;刘嘉铭;樊润泽 - 中国科学院计算技术研究所
  • 2022-08-18 - 2022-12-23 - G06N3/08
  • 本发明提供了一种语义匹配模型的训练方法,包括:A1、获取训练集,其包括多个样本,每个样本包含预定文本以及每个预定文本对应的两个待匹配文本,每个样本分别对应有弱标签和权重,弱标签指示对应样本所含两个待匹配文本中的哪一个待匹配文本与预定文本更具相关性,初始权重的数值与指示对应样本的难度的难度指标相关,难度相对越大的样本赋予相对越小的初始权重;A2、利用训练集中的样本对语义匹配模型进行多次迭代训练,使其根据预定文本分别和每个待匹配文本形成的文本对输出两者的相关性得分,根据相关性得分、弱标签以及权重确定加权损失值以更新语义匹配模型,样本的权重根据当前已完成训练的次数进行动态调整。
  • 一种语义匹配模型训练方法以及文本
  • [发明专利]一种基于多标签序列标注的指代消解方法-CN202210561797.7在审
  • 程学旗;郭嘉丰;范意兴;郭建涛 - 中国科学院计算技术研究所
  • 2022-05-23 - 2022-09-02 - G06F40/30
  • 本发明提供一种基于多标签序列标注的指代消解方法,包括:S1、将待处理文本分割成预设长度且不重合的多个文本片段;S2、采用预训练模型对每个文本片段进行编码得到每个字符的语义表达;S3、基于每个字符的语义表达分别判断每个字符是否属于B I E标签;S4、基于每个字符对应的标签,在连续I标签序列中,基于预设的组合策略组合任意的BE标签对应的字符构成短语,其中,连续I标签序列表示一个连续的字符序列中的每个字符均具有I标签;S5、计算任意两个短语之间的相似性得分,为每个短语保留与其相似性得分排名靠前的预设个数的短语作为其前置候选短语;S6、采用排序模型将每个短语的前置候选短语进行排序并将得分第一的前置候选短语作为其互指对象。
  • 一种基于标签序列标注指代消解方法
  • [发明专利]一种基于熵的神经机器翻译动态解码方法及系统-CN202010151246.4有效
  • 程学旗;郭嘉丰;范意兴;王素 - 中国科学院计算技术研究所
  • 2020-03-06 - 2022-03-29 - G06F40/58
  • 本发明提出一种基于熵的神经机器翻译动态解码方法及系统,通过分析句子的熵值与BLEU值之间的关系,发现BLEU值高的句子中单词的平均熵值比BLEU值低的句子中单词的平均熵值小,且熵值低的句子的BLEU值普遍比熵值高的句子的BLEU值高。通过计算句子的熵值与BLEU值之间的Pearson系数,发现两者之间存在相关性。因此,本发明提出在训练过程解码阶段的每个时间步,不仅要以一定的概率采样选择真实单词或预测单词获取上下文信息,还要根据上一个时间步的预测结果计算熵值,然后根据熵值动态调整上下文信息的权重。解决了神经机器翻译模型在解码过程中因训练和推断之间的上下文信息差异而导致的错误累积问题。
  • 一种基于神经机器翻译动态解码方法系统
  • [发明专利]一种开放域文本的实体关系抽取方法及系统-CN202111268377.1在审
  • 程学旗;刘一伊;王业全;郭嘉丰;张瑾;范意兴;官赛萍 - 中国科学院计算技术研究所
  • 2021-10-29 - 2022-02-08 - G06F40/295
  • 本发明提出一种开放域文本的实体关系抽取方法和系统,包括:获取已标注的文本作为训练数据,实体识别抽取训练数据中所有命名实体和名词短语,并对其进行数据增强;以增强后的数据为输入,训练神经网络模型,得到实体关系分类模型;统计增强后的数据中各命名实体和名词短语出现的词频,并将词频大于预设值的命名实体和名词短语标记为过滤词汇;获取开放域文本及其对应的头实体,抽取开放域文本中除过滤词汇以外的命名实体和名词短语并输入实体关系分类模型,得到开放域文本的实体关系。通过有效的数据增强策略,无需增加额外的成本,有效解决由于候选尾实体带来的噪音问题导致的实体关系识别在实际应用中效果不佳的问题。
  • 一种开放文本实体关系抽取方法系统

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top