专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果274377个,建议您升级VIP下载更多相关专利
  • [发明专利]一种加大深度学习训练数据量的方法-CN201910510397.1在审
  • 刘若鹏;栾琳;季春霖;陈峰 - 杭州光启人工智能研究院
  • 2019-06-13 - 2020-12-15 - G06N3/08
  • 本发明提供了一种加大深度学习训练数据量的方法,包括S1、根据数据量总量确定更新梯度的批量,根据内存或者显存数据确定计算梯度的子批量;S2、计算更新梯度的批量大小包含的子批量数量,所述更新梯度的批量包含的子批量数量为更新梯度的批量与计算梯度的子批量的商;S3、在更新梯度的批量大小包含的子批量数量的数据上运行网络的前向传播,然后进行反向传播以计算相对于网络参数的梯度;S4、执行步骤S3更新梯度的批量大小包含的子批量数量次,对更新梯度的批量大小包含的子批量数量个梯度累加后取平均梯度;S5、用平均梯度更新模型参数。
  • 一种加大深度学习训练数据量方法
  • [发明专利]神经网络系统、神经网络的学习方法以及神经网络的学习程序-CN202080092251.0在审
  • 檀上匠 - 富士通株式会社
  • 2020-01-10 - 2022-08-19 - G06N3/08
  • 神经网络系统具有存储器和访问存储器的多个处理器,多个处理器中的每一个处理器在多次学习中的每一次学习中,基于训练数据的输入和神经网络内的参数执行神经网络的运算来计算神经网络的输出,计算计算出的输出与训练数据的教师数据的差分相对于参数的梯度或者基于梯度更新量,(1)在梯度或者更新量的累积不小于阈值的第一情况下,执行多个处理器将分别计算出的多个梯度或者更新量的累积发送到多个处理器内的其它的处理器来汇集多个梯度或者更新量的累积,接收汇集后的梯度或者更新量的累积,用汇集后的梯度或者更新量的累积更新参数的第一更新处理,(2)在梯度或者更新量的累积小于阈值的第二情况下,执行多个处理器不进行基于发送的多个梯度或者更新量的累积的汇集,用多个处理器分别计算出的梯度或者更新更新各自的参数的第二更新处理
  • 神经网络系统学习方法以及学习程序
  • [发明专利]一种模型梯度更新方法及装置-CN202210107380.3在审
  • 程栋;程新;周雍恺;高鹏飞;姜铁城 - 中国银联股份有限公司
  • 2022-01-28 - 2022-05-13 - G06N20/00
  • 本申请提供一种模型梯度更新方法及装置,用以提高模型训练的准确性。中心服务器重复执行梯度更新过程,直至满足停止条件;其中,一次梯度更新过程包括:接收多个节点分别发送的第一梯度,第一梯度为每个节点采用样本数据对节点中的待训练的模型进行一次或多次训练得到;基于多个第一梯度和本次梯度更新过程中的每个节点的概率得到第二梯度,本次梯度更新过程中的每个节点的概率为Actor‑Critic网络基于上一次梯度更新过程中的每个节点的概率确定的;将第二梯度分别发送给多个节点,以使多个节点采用第二梯度对各自的待训练的模型的权重进行更新
  • 一种模型梯度更新方法装置
  • [发明专利]联邦学习的方法、装置及系统-CN202010370086.2有效
  • 岑园园;孟丹;李宏宇;李晓林 - 同盾控股有限公司
  • 2020-04-30 - 2023-09-08 - G06N20/00
  • 本申请公开了一种联邦学习的方法、装置及系统,本申请的系统包括联邦服务器将初始模型统一发送给各客户端,客户端接收联邦服务器统一发送给各客户端的初始模型后基于客户端本地数据进行模型的训练得到更新梯度;客户端再将更新梯度发送至联邦服务器;联邦服务器接收到后对各客户端发送的更新梯度进行聚合处理得到全局的更新梯度,并对全局的更新梯度进行奇异值分解;客户端接收联邦服务器发送的奇异值分解后的全局的更新梯度,并根据奇异值分解后的全局的更新梯度计算全局的更新梯度,并根据全局的更新梯度继续进行模型的训练。
  • 联邦学习方法装置系统
  • [发明专利]联邦学习优化方法、装置、电子设备及存储介质-CN202211153907.2在审
  • 陈辉铭;李勇;金德鹏 - 清华大学
  • 2022-09-21 - 2023-01-17 - G06N20/00
  • 本发明提供一种联邦学习优化方法、装置、电子设备及存储介质,其中,所述方法包括:在当前轮次的联邦学习中,获取并下发上一轮次全局模型、上一轮次全局梯度估计和上一轮次二阶信息估计矩阵至多个客户端;接收并基于客户端上传的本地梯度和本地模型得到第一次更新后全局梯度估计和第一次更新后全局模型;将第一次更新后全局模型和第一次更新后全局梯度估计下发至客户端;接收并基于客户端上传的更新后本地梯度更新后本地模型得到第二次更新后全局梯度估计和第二次更新后全局模型,并将第二次更新后全局模型和第二次更新后全局梯度估计下发至客户端
  • 联邦学习优化方法装置电子设备存储介质
  • [发明专利]一种模型优化方法、装置、计算机设备及存储介质-CN202011359384.8在审
  • 莫琪 - 平安科技(深圳)有限公司
  • 2020-11-27 - 2021-03-12 - G06K9/62
  • 本申请实施例属于人工智能的模型优化技术领域,涉及一种应用于动量梯度下降的模型优化方法、装置、计算机设备及存储介质。本申请提供的应用于动量梯度下降的模型优化方法,由于带动量的随机梯度下降在训练过程中,当前轮次的训练数据没有被采样到,而该轮次梯度更新仍然会使用历史动量来更新,这可能导致Embedding层过拟合,本申请在更新梯度之前,通过确认梯度数据是否已经更新,从而确认该轮次的训练数据确定被采样,才进行该梯度更新操作,从而有效避免在训练时当前batch中没被采样到的词,依然会使用历史动量来更新导致Embedding层过拟合的问题
  • 一种模型优化方法装置计算机设备存储介质
  • [发明专利]一种模型参数更新方法及装置-CN202111307114.7在审
  • 阴嘉伟;邓建全 - 光大科技有限公司
  • 2021-11-05 - 2022-02-11 - G06N3/02
  • 本发明提供了一种模型参数更新方法及装置,其中,该方法包括:获取多个客户端根据训练次数确定的本地模型的梯度梯度权重;根据多个本地模型的梯度梯度权重对服务端总模型的模型参数进行更新,得到更新后的模型参数,可以解决相关技术中无法区分模型训练的完备程度,使模型更新效率降低的问题,不同客户端针对其本地模型的不同训练次数确定不同的梯度权重,根据多个本地模型的梯度梯度权重对服务端总模型的模型参数进行更新,从而使训练完备程度高的本地模型上传时具有较高的权重,训练完备程度低的本模型具有相对低的权重,可以提高模型参数更新的效率。
  • 一种模型参数更新方法装置

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top