专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果78个,建议您升级VIP下载更多相关专利
  • [发明专利]一种预测方法及终端、服务器-CN201780095993.7有效
  • 陈飞;董振华;李震国;何秀强;钱莉;彭帅华 - 华为技术有限公司
  • 2017-12-29 - 2023-10-24 - G06Q10/04
  • 本发明实施例公开了一种预测方法及终端、服务器。其方法包括服务器向多个终端发送第一模型参数和第二模型参数,第一模型参数和第二模型参数适配于终端的预测模型;服务器接收多个终端中至少一个终端发送的第一预测损失,至少一个终端中每个终端发送的第一预测损失为每个终端根据采用第一模型参数和第二模型参数的预测模型计算的;服务器根据至少一个终端发送的第一预测损失对第一模型参数进行更新,以获得更新后的第一模型参数,以及根据至少一个终端发送的第一预测损失对第二模型参数进行更新,以获得更新后的第二模型参数。采用本发明实施例,可以实现通过利用大量用户数据进行训练而得到体现用户差异性的预测模型。
  • 一种预测方法终端服务器
  • [发明专利]一种用于计算设备的深度学习训练方法和装置-CN202010899680.0有效
  • 张军磊;刘传建;李桂林;张星;张维;李震国 - 华为技术有限公司
  • 2020-08-31 - 2023-10-10 - G06N3/045
  • 本申请提供人工智能领域中一种用于计算设备的深度学习训练方法和装置,用于得到残差连接更少的神经网络,提高神经网络的推理效率,降低神经网络运行时占用的内存量。该方法包括:获取训练集、第一神经网络和第二神经网络,第一神经网络包括残差连接少于第二神经网络包括残差连接;根据训练集对第一神经网络进行至少一次迭代训练,得到训练后的第一神经网络,其中,任意一次迭代训练包括:将第一神经网络中的至少一个第一中间层的第一输出,作为第二神经网络的至少一个网络层的输入,得到至少一个网络层的输出结果,使用第一损失函数更新第一神经网络,第一损失函数包括基于第二神经网络的至少一个网络层的输出结果所获取的约束项。
  • 一种用于计算设备深度学习训练方法装置
  • [发明专利]一种图像处理方法以及相关设备-CN202310216763.9在审
  • 杨昊;洪蓝青;李傲雪;胡天阳;李震国;王立威 - 华为技术有限公司
  • 2023-02-27 - 2023-09-29 - G06V10/77
  • 本申请实施例公开一种图像处理方法以及相关设备,该方法可用于人工智能领域的三维场景中,方法包括:将训练样本输入第一模型,得到训练样本中每个图像的特征信息,对第一模型进行训练;训练样本包括第一场景在多个视角下的图像,其中有第一图像和第二图像,训练的目标包括提高第一特征信息和第二特征信息之间的相似度,第一特征信息包括第一图像中第一点的特征信息,第二特征信息包括第二图像中第二点的特征信息,第一点和第二点与第一场景中的同一点对应。在利用训练后的第一模型进行特征提取时,场景中同一点在不同视角下的图像中的特征信息会更相似,前述特征信息能够反应不同视角的图像之间的联系,有利于增强模型的几何感知能力。
  • 一种图像处理方法以及相关设备
  • [发明专利]利用模型进行数据处理的方法及相关系统、存储介质-CN202110597246.1有效
  • 黎彧君;黄译旻;李震国 - 华为技术有限公司
  • 2021-05-29 - 2023-09-15 - G06F16/9535
  • 本申请实施例提供一种模型训练方法及相关系统、存储介质。其应用于人工智能方面,该方法包括:根据M个模型Pi‑2’中每个模型在第i‑1个训练阶段中每次训练流程得到的模型性能得分、M个模型Pi‑2’中每个模型在所述第i‑1个训练阶段中的超参数、第i个训练阶段的训练流程次数Ti确定参考超参数,根据M个模型Pi‑1的模型性能得分和参考超参数确定M个模型Pi‑1’中每个模型在第i个训练阶段中的超参数;在第i个训练阶段中,根据M个模型Pi‑1’中每个模型的超参数对每个模型进行Ti次训练流程,得到M个模型Pi;当第i个训练阶段为最后一个训练阶段时,从M个模型Pi中确定出目标模型。本方案可提高模型计算效率。
  • 利用模型进行数据处理方法相关系统存储介质
  • [发明专利]一种数据处理方法及其装置-CN202310612909.1在审
  • 谢恩泽;陈铠;洪蓝青;李震国 - 华为技术有限公司
  • 2023-05-26 - 2023-08-29 - G06V30/146
  • 一种数据处理方法,应用于人工智能领域,包括:获取第一图像以及文本信息,所述文本信息指示至少一个对象在图像中的位置约束;所述第一图像为通过扩散模型中的加噪模块进行加噪处理得到的图像;根据文本编码器,处理所述文本信息,得到第一特征表示;根据所述第一图像和所述第一特征表示的融合结果,通过所述扩散模型中的去噪模型,得到第二图像;所述第二图像中包括的对象满足所述文本信息指示的位置约束。本申请将表示对于生成图像中对象的位置约束的文本信息的特征表示和图像共同输入到图像生成器中,图像生成器能够更准确的得到满足文本信息中规定的几何约束的图像。
  • 一种数据处理方法及其装置
  • [发明专利]一种场景感知方法及其相关设备-CN202310464587.0在审
  • 谢恩泽;洪蓝青;葛崇剑;陈俊松;王重道;李震国 - 华为技术有限公司
  • 2023-04-19 - 2023-08-15 - G06V20/56
  • 本申请公开了一种场景感知方法及其相关设备,可以获取较为准确的目标场景的感知结果。本申请的方法包括:当需要对目标场景进行场景感知时,可先获取目标场景的图像数据和/或目标场景的点云数据,并将图像数据和/或点云数据输入至目标模型。接着,目标模型可先对图像数据和/或点云数据进行特征提取,从而得到图像数据的第一BEV特征和/或点云数据的第二BEV特征。然后,目标模型可利用预置的第三BEV特征,对第一BEV特征和/或第二BEV特征进行特征融合,从而得到特征融合结果。最后,目标模型可对特征融合结果做进一步的处理,从而得到目标场景的感知结果。至此,则完成了针对目标场景的场景感知。
  • 一种场景感知方法及其相关设备
  • [发明专利]一种神经网络的训练方法、图像处理方法以及装置-CN202110130645.7有效
  • 江宸瀚;徐航;李震国 - 华为技术有限公司
  • 2021-01-29 - 2023-07-11 - G06V10/26
  • 本申请公开了人工智能领域的一种神经网络的训练方法、图像处理方法以及装置,用于基于实际需求添加网络模块,辅助神经网络进行更新,高效得到输出更准确的神经网络。该方法包括:选择执行目标任务的第一网络;根据目标任务在第一网络中增加辅助更新第一网络的至少一个模块,得到第二网络,包括以下模块中的至少一种:第一损失模块、像素级标签模块、第二损失模块和传递模块,第一损失模块基于第一网络输出的实例边框计算损失值,像素级标签模块以像素为单位生成标签,第二损失模块基于第一网络输出的掩膜计算损失值,传递模块结合第一网络输出的实例特征和背景信息计算梯度值;使用第一样本集训练第二网络,得到用于执行目标任务的第三网络。
  • 一种神经网络训练方法图像处理以及装置
  • [实用新型]极片除尘装置及电芯制造系统-CN202223297819.8有效
  • 汪鹏;吴玉;李震国;周浪文;张龙龙;金锦茂;罗志宁 - 欣旺达电动汽车电池有限公司
  • 2022-12-07 - 2023-05-05 - B08B1/02
  • 本申请公开了一种极片除尘装置及电芯制造系统。本申请的极片除尘装置包括箱体和多个辊子。箱体具有设定的高度及长度,箱体内部具有第一容置腔,箱体的壁体上设置有连通于第一容置腔的第一开口、第二开口和多个吸气孔,第一开口和第二开口用于供极片进出第一容置腔,吸气孔连接负压气源。多个辊子容置于第一容置腔中并连接于箱体的内壁,至少部分辊子周围分布有多个吸气孔,极片能够绕设于多个辊子。极片依次缠绕于多个辊子上时,辊子能够将极片展平而使灰尘露出,并在流经多个周围设置有多个吸气孔的辊子时,多个辊子周围的吸气孔能够对极片进行多次除尘,使极片上的灰尘能够被有效去除,除尘效果得到提升。
  • 除尘装置制造系统
  • [发明专利]一种数据处理方法及相关设备-CN202111166701.9在审
  • 杨扩;洪蓝青;李震国;王立元;朱军 - 华为技术有限公司;清华大学
  • 2021-09-30 - 2023-04-04 - G06F18/214
  • 本申请实施例公开了一种数据处理方法,该方法可以应用于持续学习场景。具体的,可以用于实现分类任务或识别任务等。该方法包括:获取第一神经网络,第一神经网络是经过第一数据集训练得到的;基于第一压缩方式压缩第一数据集得到第一压缩数据集;存储第一压缩数据集;获取第二数据集,第二数据集的采集时刻晚于第一数据集的采集时刻;基于第一压缩数据集与第二数据集训练第一神经网络。在持续学习的增量信息带来的存储空间需求暴涨的情况下。存储压缩后的历史数据集,可以减少单个历史数据样本占用的存储空间,增加存储历史数据量。且基于压缩后的历史数据集与新增数据集训练,可以减少第一神经网络出现灾难性遗忘。
  • 一种数据处理方法相关设备
  • [发明专利]一种数据处理方法及相关设备-CN202110939737.X在审
  • 孙嘉城;朱尧;李震国 - 华为技术有限公司
  • 2021-08-16 - 2023-04-04 - G06F21/55
  • 本申请实施例公开了一种数据处理方法,可以应用于物体识别系统攻击、人脸识别恶意攻击破解手机等场景。该方法包括:获取包括标签值的训练样本;获取训练样本对应的对抗样本,其中,对抗样本为通过在训练样本上添加对抗扰动得到;对对抗样本进行采样,得到虚拟样本;基于对抗样本、标签值以及虚拟样本训练神经网络。相比于传统的对抗训练方法,本申请提供的神经网络的训练过程通过在对抗训练中增加对抗样本的数据分布,一方面,可以提升神经网络的鲁棒性。另一方面基于联合能量函数生成的对抗样本能够更直接的优化联合能量,从而使损失函数在对抗训练过程中变的更光滑。
  • 一种数据处理方法相关设备
  • [发明专利]数据编码方法、数据解码方法以及数据处理装置-CN202111163722.5在审
  • 张世枫;康宁;汤姆·里德尔;李震国 - 华为技术有限公司
  • 2021-09-30 - 2023-04-04 - H03M7/30
  • 本申请涉及人工智能领域,公开了数据编码方法、数据解码方法以及数据处理装置,其中,数据编码方法和数据解码方法均涉及可逆流模型。其中,可逆流模型包括目标可逆流层,目标可逆流层中的模型参数用于约束在逆向变换处理过程中生成的辅助变量,目标可逆流层对应的运算包括基于模型参数确定的乘法运算和除法运算,该辅助变量为乘法运算的乘积的增量或除法运算产生的余数。由于,在数据编码和数据解码过程中,不仅能够使用乘法运算,还可以在进行除法运算时通过使用辅助变量实现可逆,因此,相比于传统技术中的整数流模型提高了模型表征能力,有利于提升模型概率分布的估计准确率,进而能够提升无损压缩的压缩效率。
  • 数据编码方法解码以及数据处理装置
  • [发明专利]深度卷积神经网络中的归一化-CN202080102004.4在审
  • 周晓云;孙嘉城;叶南洋;兰旭;罗琪竣;佩德罗·埃斯佩兰卡;法比奥·玛利亚·卡路奇;陈泽伟;李震国 - 华为技术有限公司
  • 2020-09-08 - 2023-03-14 - G06N3/0464
  • 本文描述了一种用于机器学习的设备(900),所述设备(900)包括一个或多个处理器(901),所述处理器用于实现神经网络第一层、神经网络第二层以及布置在所述神经网络第一层与所述神经网络第二层之间的归一化层,所述归一化层用于在所述设备在对一批训练样本进行训练时执行以下操作:针对所述批次的多个训练样本接收(1001)所述神经网络第一层的多个输出,每个输出包括第一维度和第二维度上不同索引的多个数据值,所述第一维度表示通道维度;根据与所述输出相关的所述第一维度和所述第二维度上的所述索引,将所述输出分成(1002)多个组;为每个组形成(1003)归一化输出;提供(1004)所述归一化输出作为所述神经网络第二层的输入。这可以训练具有良好性能的深度卷积神经网络,所述深度卷积神经网络在不同批量大小时稳定运行并且可推广到多个视觉任务。这也可以加快所述训练并提高所述训练的性能。
  • 深度卷积神经网络中的归一化
  • [发明专利]一种模型训练方法及其装置-CN202110976217.6在审
  • 陈铠;洪蓝青;徐航;李震国 - 华为技术有限公司
  • 2021-08-24 - 2023-03-03 - G06V20/58
  • 本申请公开了一种模型训练方法,方法包括:采样样本图像,以得到第一图像块和第二图像块,基于第一图像块和第二图像块在样本图像上所在区域之间的并交比大于阈值,通过特征提取网络分别对第一图像块和第二图像块进行特征提取,并根据得到的第一特征图和第二特征图之间的差异,确定损失,基于损失更新特征提取网络。本申请使用交并比作为衡量两图像块之间相对距离的方式,通过要求图像块交并比大于给定阈值保证局部区域内语义一致性以恢复对比学习基本假设,将图像块限制在一个局部区域内部,从而将全局不一致性转化为局部一致性,进而提高更新后的特征提取网络的数据处理精准度。
  • 一种模型训练方法及其装置

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top