专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果533792个,建议您升级VIP下载更多相关专利
  • [发明专利]场景适配方法、装置、设备及存储介质-CN202111324963.3在审
  • 林楚然;王福泉;程力行;袁振华;贾东风 - 奇酷软件(深圳)有限公司
  • 2021-11-10 - 2022-01-07 - G06T7/11
  • 本发明属于深度学习技术领域,公开了一种场景适配方法、装置、设备及存储介质。该方法包括:从旧数据集中选取目标正样本;获取场景图像,从新场景图像中截取目标区域,得到目标负样本;将目标正样本与目标负样本进行融合,得到样本;确定样本对应的分类结果;根据样本和对应的分类结果构成数据集;根据旧数据集和数据集对预设分类模型进行训练。通过上述方式,将现有旧数据集中的样本数据作为正样本,将场景图像作为负样本,融合生成数据集,根据旧数据集和数据集对预设分类模型进行训练,使得预设分类模型快速适配场景,无需采集大量的包含分类目标的场景样本数据
  • 场景配方装置设备存储介质
  • [发明专利]基于核鉴别线性表示的分类方法-CN201410026937.6在审
  • 刘茜 - 南京信息工程大学
  • 2014-01-21 - 2014-04-30 - G06K9/62
  • 本发明公开了基于核鉴别线性表示的分类方法,利用训练样本集识别测试样本所属的类别。首先对训练样本集和测试样本中的所有样本分别进行预处理,得到的训练样本集和的测试样本,各个样本类别的的训练样本构成的子训练样本集,然后计算的测试样本在各个的子训练样本集内的重构误差,最后将测试样本归为重构误差最小的的子训练样本集所对应的那一类,所述预处理为采用核主成分分析方法对待处理样本做降维运算,再对降维后的所有样本做归一化运算。
  • 基于鉴别线性表示分类方法
  • [发明专利]文本相似度的计算方法及装置-CN201710223484.X有效
  • 郑丹丹 - 阿里巴巴集团控股有限公司
  • 2017-04-07 - 2020-05-29 - G06F40/194
  • 本申请提供一种文本相似度的计算方法,包括:通过基于相同的过滤策略,对原始的黑样本库中的文本样本以及录入的文本样本进行分词处理得到的文本分词,按照多个保持梯度的文本过滤比例分别进行文本分词过滤处理,并使用过滤后剩余的文本分词分别对原始的黑样本库中的文本样本以及录入的文本样本进行重构,然后利用文本分词的过滤比例来表征录入的文本样本与黑样本的相似度,通过匹配重构后的黑样本库与录入的文本样本中的文本分词,为录入的文本样本进行分词得到的文本分词设置黑样本相似度。本申请可以显著提升在计算录入的文本样本与黑样本库中的文本样本的相似度时的计算效率。
  • 文本相似计算方法装置
  • [发明专利]文本相似度的计算方法及装置-CN202010419437.4有效
  • 郑丹丹 - 创新先进技术有限公司
  • 2017-04-07 - 2023-03-21 - G06F40/194
  • 本申请提供一种文本相似度的计算方法,包括:通过基于相同的过滤策略,对原始的黑样本库中的文本样本以及录入的文本样本进行分词处理得到的文本分词,按照多个保持梯度的文本过滤比例分别进行文本分词过滤处理,并使用过滤后剩余的文本分词分别对原始的黑样本库中的文本样本以及录入的文本样本进行重构,然后利用文本分词的过滤比例来表征录入的文本样本与黑样本的相似度,通过匹配重构后的黑样本库与录入的文本样本中的文本分词,为录入的文本样本进行分词得到的文本分词设置黑样本相似度。本申请可以显著提升在计算录入的文本样本与黑样本库中的文本样本的相似度时的计算效率。
  • 文本相似计算方法装置
  • [发明专利]半监督文本分类模型训练方法、文本分类方法、系统、设备及介质-CN202010599107.8有效
  • 刘江宁;鞠剑勋;李健 - 上海携旅信息技术有限公司
  • 2020-06-28 - 2023-04-25 - G06F16/35
  • 本发明提供一种半监督文本分类模型训练方法、文本分类方法、系统、设备及介质,该训练方法包括:获取初始样本集;对未标注样本增强得到数据增强样本;将未标注样本和数据增强样本输入文本分类模型,得到嵌入向量以及属于各分类标签的预测概率;针对各未标注样本,获取其与对应数据增强样本的嵌入向量均值作为样本;针对各未标注样本,获取其与对应数据增强样本属于各分类标签的预测概率均值锐化后作为样本的标签估计结果;校验样本是否可信,若可信标记为可信任样本;根据标注样本及可信任样本构建置信样本集并进行扩充得到目标样本集;根据目标样本集对文本分类模型进行训练。本发明在标注样本缺乏的情况下提高文本分类的准确性。
  • 监督文本分类模型训练方法系统设备介质
  • [发明专利]更新可信模型的方法及装置-CN202210687416.X在审
  • 周璟;杨信;王宁涛;吕乐;傅幸;王维强 - 支付宝(杭州)信息技术有限公司
  • 2022-06-17 - 2022-10-11 - G06Q20/40
  • 其中方法包括:获取新增样本以及新增样本对应的标签;将新增样本输入原可信模型,获取并存储原可信模型针对新增样本的输出结果作为新增样本的模拟原始标签;在原可信模型中新增一个与原输出层结构相同且并列的输出层,得到可信模型;利用新增样本训练可信模型,以最小化原输出层针对新增样本的输出结果与新增样本的模拟原始标签之间的差异,输出层针对新增样本的输出结果与新增样本对应的标签之间的差异,以及输出层针对新增样本的输出结果与新增样本的模拟原始标签之间的差异;从训练结束后得到的可信模型中去除原输出层得到更新后的可信模型。
  • 更新可信模型方法装置
  • [发明专利]一种基于基类样本特征合成的小样本图像分类方法-CN202210033296.1在审
  • 杨赛;周伯俊;杨慧;胡彬 - 南通大学
  • 2022-01-12 - 2022-04-22 - G06V10/764
  • 本发明涉及小样本图像分类技术领域,具体涉及一种基于基类样本特征合成的小样本图像分类方法,本发明利用监督对比损失函数在基类数据集上对模型进行预训练得到特征提取器,提取基类和样本特并计算原型,对于每类类原型,利用Cosine相似性计算其近邻基类原型,并在类原型与其近邻基类原型之间线性合成若干样本特征。本发明在不考虑样本分布的情况下,就能实现少量支持样本特征的增强,从而提高小样本图像分类性能。本发明将基类视为多数类,采用过采样技术对类中的样本进行扩充,能够解决基类与类之间样本不平衡问题。
  • 一种基于样本特征合成图像分类方法
  • [发明专利]一种处理不平衡数据集的过采样方法-CN202310874923.9在审
  • 韩志杰;乔恒;杜晓玉;程普 - 河南大学
  • 2023-07-17 - 2023-10-24 - G06F18/2413
  • 本发明涉及不平衡数据分类技术领域,具体涉及一种处理不平衡数据集的过采样方法,该方法包括:将数据集按照样本数量分为多数类样本集和少数类样本集;获取少数类样本集中每个样本的邻近样本,根据少数类样本集中每个样本的邻近样本是否属于多数类样本集的数量,对少数类样本集进行划分得到三个类型集合,包括第一类型集合和第二类型集合;获取第二类型集合中任意一个样本作为主样本,根据主样本的邻近样本是否属于第一类型集合获取辅助样本,根据主样本和辅助样本合成样本,构成样本集;根据少数类样本集和样本集利用DCGAN网络得到优选样本集。本发明合成的样本受噪声的影响较小,使得合成的样本拥有更明显的少数类特征。
  • 一种处理不平衡数据采样方法
  • [发明专利]一种支持向量预测的知识发现算法-CN201911384653.3在审
  • 贾新志 - 上海骥灏网络股份有限公司
  • 2019-12-28 - 2020-05-15 - G06K9/62
  • 本发明公开了一种支持向量预测的知识发现算法,包括以下步骤:S1、获取初始样本集,初始化参数;S2、通过对样本集进行训练得到RVM预测模型;S3、计算每个样本样本标签、局部密度因子和误差因子;S4、根据RVM预测模型对即将输入的未来样本进行预测;S5、降序排列样本特性向量并进行循环,若非相关向量次数超过设定的阈值,则从样本集中删除该样本,跳出循环;S6、判断是否还有输入的样本,若有样本,则加入样本,形成样本集,转到步骤S2;若没有样本,则输出预测的未来样本。本发明通过引入样本标签的概念,具有更高的预测精度,向量预测时间花费短,可广泛应用于实时数据的处理和预测中。
  • 一种支持向量预测知识发现算法

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top