[发明专利]神经网络的训练方法、装置及存储介质在审

专利信息
申请号: 201911053898.8 申请日: 2019-10-31
公开(公告)号: CN110782034A 公开(公告)日: 2020-02-11
发明(设计)人: 初祥祥;许瑞军;张勃;李吉祥;李庆源;王斌 申请(专利权)人: 北京小米智能科技有限公司
主分类号: G06N3/08 分类号: G06N3/08;G06N3/04
代理公司: 11270 北京派特恩知识产权代理有限公司 代理人: 王黎延;马广禄
地址: 100085 北京市海淀区清河*** 国省代码: 北京;11
权利要求书: 查看更多 说明书: 查看更多
摘要: 本公开是关于一种神经网络的训练方法、装置及存储介质,该方法可以包括:对超网络进行训练,得到超网络的网络参数,超网络的每个网络层包括:并列的多个备选网络子结构;从超网络的每个网络层的多个备选网络子结构中,选择一个备选网络子结构作为目标网络子结构;基于各层所选的目标网络子结构,构成子网络;将从超网络继承的网络参数作为子网络的初始化参数,训练子网络得到子网络的网络参数。本公开中,将从超网络继承的网络参数作为子网络的初始化参数,并训练子网络,不用针对子网络从零开始训练,能减少训练神经网络的运算量,提高训练效率。
搜索关键词: 子网络 子结构 网络参数 备选网络 网络 初始化参数 目标网络 网络层 训练神经网络 存储介质 神经网络 训练效率 运算量 继承 并列
【主权项】:
1.一种神经网络的训练方法,其特征在于,包括:/n对超网络进行训练,得到所述超网络的网络参数,其中,所述超网络的每个网络层包括:并列的多个备选网络子结构;/n从所述超网络的每个网络层的多个备选网络子结构中,选择一个所述备选网络子结构作为目标网络子结构;/n基于各层所选的所述目标网络子结构,构成子网络;/n将从所述超网络继承的网络参数作为所述子网络的初始化参数,训练所述子网络得到所述子网络的网络参数。/n
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京小米智能科技有限公司,未经北京小米智能科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201911053898.8/,转载请声明来源钻瓜专利网。

同类专利
  • 数据增强的方法、装置、设备及存储介质-201910798040.8
  • 黄俊鸿;黄俊洲;赵沛霖;侯金龙;裴建国 - 腾讯科技(深圳)有限公司
  • 2019-08-27 - 2020-02-14 - G06N3/08
  • 本申请公开了数据增强的方法、装置、设备及存储介质。方法包括:获取目标数据增强操作;保持目标数据增强操作不变,获取目标参数;基于目标数据增强操作和目标参数,对初始训练样本进行数据增强,得到第一目标训练样本;基于第一目标训练样本对神经网络进行训练,直至满足第一终止条件;基于目标数据增强操作和满足第一终止条件时所采用的目标参数,对初始训练样本进行数据增强,得到第二目标训练样本;基于第二目标训练样本对神经网络进行训练,直至满足第二终止条件;基于满足第二终止条件时采用的目标数据增强操作和目标参数,对目标数据进行数据增强。基于上述过程,目标参数可以为任意数值,能够提高数据增强的效率,数据增强的效果较好。
  • 一种基于深度学习的耳内镜图像神经网络模型构建方法及智能分类处理方法-201910930100.7
  • 蔡跃新;余晋刚;李远清;郑亿庆;刘楚 - 中山大学孙逸仙纪念医院;华南理工大学
  • 2019-09-29 - 2020-02-14 - G06N3/08
  • 本发明公开了一种基于深度学习的耳内镜图像神经网络模型构建方法及智能分类处理方法,该模型构建方法包括步骤A:从医院病例数据库中选取耳内镜图像构建耳内镜数据集,将数据集划分为测试集以及训练集;步骤B:加载预训练的神经网络模型,在所得到的训练集上微调预训练的神经网络模型,获得训练得到的神经网络模型;步骤C:在测试集上验证步骤B训练得到的神经网络模型的性能,筛选出最优神经网络模型。本发明同时公开了一种基于深度学习的耳内镜图像智能分类处理方法,该智能分类处理方法还包括步骤D:通过步骤C获得的最优神经网络模型,对新增的耳内镜图像进行智能分类,输出分类结果。
  • 应用于卷积神经网络的卷积处理方法、系统及相关组件-201910963711.1
  • 金良;范宝余;郭振华 - 浪潮电子信息产业股份有限公司
  • 2019-10-11 - 2020-02-14 - G06N3/08
  • 本申请公开了一种应用于卷积神经网络的卷积处理方法,包括:获取目标操作对象;所述目标操作对象具体为输入特征;对所述目标操作对象进行边窗卷积计算,得到多个方向的计算结果;对所述多个方向的计算结果进行交叉熵的最优化处理,得到所述目标操作对象的卷积结果。本发明解决了原有卷积神经网络中以卷积核为中心点做卷积操作时带来的性能损失,通过综合分析多个方向上的边窗卷积操作,提高了卷积操作获取数据更泛化特征的能力,以此提高了卷积神经网络的性能。相应的,本申请还公开了一种应用于卷积神经网络的卷积处理系统、装置及可读存储介质。
  • 基于卷积神经网络的图像压缩优化方法-201911032999.7
  • 郭炜;李琦;魏继增 - 天津大学
  • 2019-10-28 - 2020-02-14 - G06N3/08
  • 本发明涉及卷积网络、图像处理,为解决卷积神经网络模型存储资源开销大、参数计算量大、推断时间长等问题,本发明,基于卷积神经网络的图像压缩优化方法,构建包括编码器E、解码器d和对抗网络GAN的网络模型,编码器E为卷积神经网络,解码器d为进行上采样处理的卷积神经网络和进行恢复原始图像维度的反卷积神经网络,由一个discriminator卷积神经网络和一个反卷积神经网络generator构成生成式对抗网络GAN,q为算数运算器,将原始图像x经编码器E编码为特征图w,然后经量化器q量化为
  • 基于双头或多头神经网络的预测方法及系统-201911045356.6
  • 薛雅琪 - 上海天壤智能科技有限公司
  • 2019-10-30 - 2020-02-14 - G06N3/08
  • 本发明提供了一种基于双头或多头神经网络的预测方法及系统,包括:特征获取步骤:从数据库中获取已有预测对象数据的特征;输入步骤:向一个共享神经网络输入特征并进行运算,所述共享神经网络的末端包括两个或两个以上输出头;输出步骤:每个输出头根据所述共享神经网络的运算结果,在共享网络上按照多个目标训练的预测模型和多个目标预测模型的输出结果;拟合步骤:对所有预测目标进行拟合,得到一个满足多个目标的共享神经网络结构和以此为基础的多个目标的预测模型;预测步骤:共享神经网络和多个目标模型根据目标需求分别输出预测结果。本发明解决了传统的多个独立网络模型预测的缺陷,并提升最终的预测效果。
  • 生成对抗网络的训练方法及设备-201911058600.2
  • 陈海波;高文龙;唐菁;贾涛 - 中国联合网络通信集团有限公司;联通系统集成有限公司
  • 2019-11-01 - 2020-02-14 - G06N3/08
  • 本发明实施例提供一种生成对抗网络的训练方法及设备,该方法包括将判别器模型的参数固定,通过损失函数对生成器模型的参数进行迭代优化,直至生成器模型的相似度达到第一阈值;将生成器模型的参数固定,通过损失函数对判别器模型的参数进行迭代优化,直至判别器模型的辨别率达到第二阈值;所述第一阈值的取值和第二阈值的取值均与当前交替次数有关;将交替次数加一;重复执行以上步骤,直至判别器模型和生成器模型达到纳什平衡;根据当前的判别模型和当前的生成模型确定训练后的生成对抗网络。本发明实施例可以对生成器模型和判别器模型的迭代时间进行控制,能够提高生成对抗模型的训练效率,并且避免了模型崩溃的情况出现。
  • 一种神经网络模型训练方法、装置、芯片和系统-201611073994.5
  • 张长征;白小龙;涂丹丹 - 华为技术有限公司
  • 2016-11-29 - 2020-02-14 - G06N3/08
  • 本发明实施例涉及机器学习领域,尤其涉及一种神经网络模型训练方法、装置、芯片和系统,用以缩短模型参数的训练时延。本发明实施例每个训练周期包括K次迭代,针对N个工作模块中的一个工作模块在每个训练周期内的第i次迭代,各个工作模块并行执行:根据第i次迭代的局部梯度和第i次迭代的模型参数计算第i+1次迭代的模型参数,且在i小于K的情况下,根据第i+1次迭代的模型参数以及第i+1次迭代的样本数据,计算第i+1次迭代的局部梯度;工作模块从所述服务器模块下拉第r次迭代的全局梯度和/或向所述服务器模块上推第f次迭代的局部梯度。从而使计算进程与通讯进程的时间窗口重叠,缩短模型参数的训练时延。
  • 数据识别器训练方法、数据识别器训练装置、程序及训练方法-201880043309.5
  • 宫户岳 - 首选网络株式会社
  • 2018-06-28 - 2020-02-14 - G06N3/08
  • 一种数据识别器训练方法、数据识别器训练装置、程序及训练方法,其实现使在GAN中的识别器的训练的稳定化的学习。数据识别器训练方法训练数据识别器,该数据识别器具备识别正确答案数据和伪数据的神经网络模型,其中,具备如下的步骤:将前述正确答案数据输入前述数据识别器,取得第一预测结果的步骤;将前述伪数据输入前述数据识别器,取得第二预测结果的步骤;基于取得的前述第一预测结果以及取得的前述第二预测结果算出误差的步骤;基于前述误差和前述神经网络模型的各层的权重矩阵的奇异值更新前述权重矩阵的步骤。
  • 在不同的深度学习架构之间的知识转移-201880043324.X
  • M·卡格;C·斯查芬贝格 - 康蒂-特米克微电子有限公司
  • 2018-06-28 - 2020-02-14 - G06N3/08
  • 本发明涉及一种方法,该方法用于将具有第一架构的第一神经网络转换到用于交通工具控制装置中的、具有第二架构的第二神经网络,以获取第一神经网络的知识并将其传输到第二神经网络。所述方法在第一步骤中,将第一神经网络的至少一个层转换到第二神经网络的至少一个层(701)。在第二步骤中,在第二神经网络架构中随机初始化至少一个经转换的层(702)。在第三步骤中,在第二神经网络中训练至少一个经转换的层(703)。在第四步骤中,对第二神经网络中未经转换的层或整个第二神经网络进行微调(704)。在多个过程或迭代中完成第一神经网络到第二神经网络的转换,在每个过程中都执行下列步骤:转换(701)、随机初始化(702)、训练(703)和同时进行微调(704)。
  • 深度学习权值更新方法、系统、计算机设备及存储介质-201910872174.X
  • 王健宗 - 平安科技(深圳)有限公司
  • 2019-09-16 - 2020-02-11 - G06N3/08
  • 本发明实施例提供一种基于参数重写的深度学习权值更新方法,包括步骤:根据多个神经元输出函数构建深度神经网络模型;对所述深度神经网络模型中的各个权值向量进行参数更新以得到更新后的各个权值向量;将训练样本输入至所述深度神经网络模型中,并从所述深度神经网络模型中获取计算输出;根据所述计算输出对所述各个权值向量进行更新。通过本发明实施例,能够对权值参数进行重写,避免了批量归一化对样本数量的限制的问题,同时,还提高了神经网络的收敛速度,加快了神经网络的训练过程。
  • 一种卷积神经网络的训练方法及装置-201911023899.8
  • 王子宁 - 广州思德医疗科技有限公司
  • 2019-10-25 - 2020-02-11 - G06N3/08
  • 本发明实施例提供一种卷积神经网络的训练方法及装置,所述方法包括:根据预训练样本数据和原始卷积神经网络,确定瘦身卷积神经网络;所述瘦身卷积神经网络是保留全部目标卷积核、且保留可存储新卷积核的存储空间的卷积神经网络;输入训练样本数据至所述瘦身卷积神经网络,若识别出所述新卷积核,则确定与所述新卷积核对应的新特征分类类别;根据所述新特征分类类别标注对应的样本数据,并训练所述瘦身卷积神经网络。所述装置执行上述方法。本发明实施例提供的卷积神经网络的训练方法及装置,不仅有效提高了卷积神经网络识别已知类别的执行效率,还通过新特征分类类别标注对应的样本数据,并训练瘦身卷积神经网络,增强瘦身卷积神经网络的适应性。
  • 一种基于模糊神经网络的AGV车定位方法-201911033031.6
  • 杜玲;施丰鸣 - 玲睿(上海)医疗科技有限公司
  • 2019-10-28 - 2020-02-11 - G06N3/08
  • 本发明涉及一种基于模糊神经网络的AGV车定位方法,包括以下步骤:步骤1:在AGV车上设置若干传感器,每个所述传感器各自获取距离障碍物的距离数据,每个所述传感器根据所述距离数据获得对应的决策数据;步骤2:构建模糊神经网络模型,将所述距离数据作为所述模糊神经网络模型的输入值,将所述AGV车的速度和角度作为所述模糊神经网络模型的输出值;步骤3:采用专家经验对所述模糊神经网络模型进行训练,将训练误差减小到期望值时,得到模糊神经网络决策模型。其优点在于,通过多个传感器对信息进行融合,构建模糊神经模型,训练得到模糊神经网络决策模型,得到AGV车的速度和角度,进而调整AGV车的实时位置,寻找最佳路径,提高了AGV车的定位精度。
  • 神经网络的训练方法、装置及存储介质-201911053898.8
  • 初祥祥;许瑞军;张勃;李吉祥;李庆源;王斌 - 北京小米智能科技有限公司
  • 2019-10-31 - 2020-02-11 - G06N3/08
  • 本公开是关于一种神经网络的训练方法、装置及存储介质,该方法可以包括:对超网络进行训练,得到超网络的网络参数,超网络的每个网络层包括:并列的多个备选网络子结构;从超网络的每个网络层的多个备选网络子结构中,选择一个备选网络子结构作为目标网络子结构;基于各层所选的目标网络子结构,构成子网络;将从超网络继承的网络参数作为子网络的初始化参数,训练子网络得到子网络的网络参数。本公开中,将从超网络继承的网络参数作为子网络的初始化参数,并训练子网络,不用针对子网络从零开始训练,能减少训练神经网络的运算量,提高训练效率。
  • 神经网络模型训练方法、装置及终端设备-201810847469.7
  • 关婧玮 - TCL集团股份有限公司
  • 2018-07-27 - 2020-02-07 - G06N3/08
  • 本发明涉及图像处理技术领域,提供了一种神经网络模型训练方法、装置及终端设备。该方法包括:获取用于对图像进行超分辨处理的神经网络模型和用于训练所述神经网络模型的初始图像;对所述初始图像添加噪声;对添加噪声后的初始图像进行下采样处理,生成所述初始图像对应的采样图像;将所述初始图像及对应的采样图像作为训练数据,对所述神经网络模型进行训练。本发明通过对初始图像加入噪声,使生成的采样图像更接近于实际应用中含有噪声的图像,从而保证训练时神经网络模型的超分辨效果与实际应用中神经网络模型的超分辨效果相一致,提高训练后神经网络模型在实际应用中对图像进行超分辨处理的效果。
  • 一种基于混合精度存储的深度神经网络加速器-201910922467.4
  • 刘波;朱文涛;沈泽昱;黄乐朋;李焱;孙煜昊;杨军 - 东南大学
  • 2019-09-27 - 2020-02-07 - G06N3/08
  • 本发明公开了一种基于混合精度存储的深度神经网络加速器,属于计算、推算、计数的技术领域。该加速器包括片上缓存模块、控制模块、位宽可控的乘加批计算模块、非线性计算模块、寄存器阵列以及基于双查找表的霍夫曼解码模块,将权值的有效比特位和符号位参数存储在同一个存储器中,实现了混合精度的数据存储和解析,实现了对混合精度的数据和权重的乘加操作。通过基于混合精度的数据存储解析和基于双重查找表的霍夫曼解码实现了对不同精度下数据和权重的压缩和存储,减少了数据流,实现了基于深度神经网络的低功耗的数据调度。
  • 人工智能预测活性成分动态溶解度的方法、设备及系统-201910991714.6
  • 王昊昱;曹兆洋;王中彦;覃宁远 - 王昊昱;曹兆洋;王中彦
  • 2019-10-18 - 2020-02-07 - G06N3/08
  • 本发明公开了人工智能预测活性成分动态溶解度的方法、设备及系统,方法包括以下步骤:S1:任意选择一个影响活性成分化合物溶解度因素中的数据作为变量数据,在其他影响因素不变的情况下,通过多组实验得到溶解度数据,将变量数据与相对应的溶解度数据作为平行样本实验数据建立神经网络模型;S2:将新的活性成分的变量数据作为输入变量输入步骤S1建立的神经网络模型中,通过步骤S1建立的神经网络模型计算出预测数据,再利用导出公式进行修正预测出活性成分化合物的溶解度。本发明采用人工智能对单因素考察实验结果的预测来减少实验所需实验量,使研发时间和成本降低,且根据平行实验的标准差并剔除实验误差较大的异常数据,提高溶解度预测准确度。
  • 一种城市综合管廊气体浓度检测方法及系统-201911044209.7
  • 曾辉;廖婷婷;李宗平 - 中冶长天国际工程有限责任公司
  • 2019-10-30 - 2020-02-07 - G06N3/08
  • 本申请公开了一种城市综合管廊气体浓度检测方法及系统,本申请实施例提供的方法及系统,确定神经网络模型;获取光信号值,根据所述神经网络模型,确定气体浓度。现有技术对微小气体含量的情况下检测不灵敏,甚至会出现漏检或者误检的情况,为了解决这个问题,本申请通过神经网络模型的构建,把微弱气体的光信号转化为气体浓度信号,最终可以测得微小气体含量下的气体浓度情况,更加敏锐的解决了安全隐患。
  • 一种基于神经节分化的增量式目标识别系统-201710055128.1
  • 王元庆;胡晶晶;王冉;詹伶俐 - 南京大学
  • 2017-01-24 - 2020-02-07 - G06N3/08
  • 一种基于神经节分化的增量式目标识别系统,由低隐藏层、神经节层、高隐藏层和分类器构成,神经节层位于低隐藏层和高隐藏层之间;神经节层的神经节提取样本特征规律,通过神经节的激活和分化,在高隐藏层形成对应的独立的特征集,形成对样本的特征记忆;高隐藏层的特征集的数量可变;新增神经节对新样本形成新的记忆,自适应地更新高隐藏层的特征集,实现增量式的目标识别;所述的神经节是指用于表征一组分布规律相似的样本的神经网络结点,当输入样本特征参数大于激活阈值时,神经节被激活,该神经节在高隐藏层形成独立的特征集;被激活的神经节的活性小于阈值时,该神经节将凋亡;特征不同的样本激活不同的神经节,并新增神经节。
  • 超参数的优化方法及装置-201880038686.X
  • 蒋阳;赵丛;张李亮 - 深圳市大疆创新科技有限公司
  • 2018-10-30 - 2020-02-07 - G06N3/08
  • 提供一种超参数的优化方法与装置,该方法包括:将机器学习需要优化的超参数划分为N组超参数;分别对N组超参数进行贝叶斯优化,获得优化后的超参数,其中,在对每组超参数进行贝叶斯优化的过程中,固定其余组超参数的取值为最新取值。通过对机器学习需要优化的超参数分组进行贝叶斯优化,一方面可以对超参数实现降维搜索,另一方面可以弱化降维假设的限制。
  • 神经网络模型的训练方法和训练系统-201910618250.4
  • 罗远飞;涂威威;曹睿;陈雨强 - 第四范式(北京)技术有限公司
  • 2019-07-10 - 2020-02-04 - G06N3/08
  • 提供了一种神经网络模型的训练方法和训练系统。所述训练方法包括:获取训练数据记录;基于训练数据记录的属性信息来生成训练样本的特征,并将训练数据记录的标记作为训练样本的标记;以及利用训练样本的集合来训练神经网络模型,其中,在训练神经网络模型的过程中,针对神经网络模型之中的主体神经网络结构之中的至少一部分层,分别获得与其中每层的输出对应的层预测结果;基于由神经网络模型的输出层所输出的预测结果与所述标记之间的差异以及每个层预测结果与所述标记之间的层预测差异来构建损失函数;以及根据所述损失函数来调整所述神经网络模型。
  • 神经网络模型的训练方法及系统以及预测方法及系统-201910618464.1
  • 罗远飞;涂威威;曹睿;陈雨强 - 第四范式(北京)技术有限公司
  • 2019-07-10 - 2020-02-04 - G06N3/08
  • 提供了一种神经网络模型的训练方法和系统以及预测方法和系统。所述训练方法包括:获取训练数据记录;基于训练数据记录的属性信息来生成训练样本的特征,并将训练数据记录的标记作为训练样本的标记;以及基于训练样本来训练所述神经网络模型,其中,在基于训练样本来训练所述神经网络模型的步骤中,将训练样本的至少一个特征经过对应的嵌入层,得到对应的特征嵌入向量,其中,所述方法还包括:在将训练样本的至少一个特征经过对应的嵌入层之前,分别确定各个嵌入层的维度。
  • 模型训练方法、装置、计算机设备和存储介质-201910875745.5
  • 王健宗 - 平安科技(深圳)有限公司
  • 2019-09-17 - 2020-02-04 - G06N3/08
  • 本申请涉及一种模型训练方法、装置、计算机设备和存储介质。所述方法涉及深度学习,包括:获取模型输出数据,模型输出数据通过将训练样本数据输入待训练模型中得到;获取训练样本数据对应预设的基准结果数据;当待训练模型不满足训练完成条件时,根据模型输出数据和基准结果数据之间的输出差异,确定模型输出数据的当前梯度;根据预设的高斯随机规则,对当前梯度进行梯度更新,得到模型输出数据的更新梯度;根据更新梯度确定待训练模型的更新权值,并根据更新权值对待训练模型进行更新,返回获取模型输出数据的步骤。采用本方法能够提高模型训练效果。
  • 数据处理方法、设备和可读存储介质-201910828500.7
  • 高源;付英波;蔡子翔;姚聪 - 北京旷视科技有限公司
  • 2019-09-03 - 2020-01-21 - G06N3/08
  • 本发明公开了数据处理方法、设备和可读存储介质。该数据处理方法包括:接收输入的数据;经由神经网络模型的至少一个子网络模型,处理数据;输出对数据的处理结果,其中,神经网络模型包括多个基本单元和多个子网络模型,其中每个子网络模型包括多个基本单元中的至少部分基本单元,且多个子网络模型中的至少两个子网络模型共享多个基本单元中的一个或多个基本单元。本发明实施例通过在一个神经网络中设计能够共享参数的多个子网络模型结构,从而在该神经网络的一次训练过程中可以同时训练多个不同的子网络模型,能够满足不同数据处理设备的精度、速度需要,极大简化了实际开发过程中的训练和测试流程,节省了计算资源。
  • 一种基于相关性分析的神经网络自组织遗传进化算法-201910912280.6
  • 杨旭;王宇晗;杨敏;陈潇雅 - 北京理工大学
  • 2019-09-25 - 2020-01-17 - G06N3/08
  • 一种基于相关性分析的神经网络自组织遗传进化算法,构建初始神经网络,初始神经网络只包含输入层和输出层;采用BP算法训练网络,并记录训练日志数据;获取连接相关性,优化神经网络;复杂化神经网络;融合遗传进化算法迭代神经网络,输出最优神经网络模型。本发明输出最优模型的迭代次数优于NEAT输出最优模型的迭代次数,输出最优的神经网络模型之前所进行的BP调节次数少于普通的BP神经网络所需要的调节次数,通过使用不同数据集进行相关实验对算法性能(准确率)进行验证,实验结果表明算法在分类问题方面的表现相对优秀,可以应用于现在人工智能领域分类问题的研究。
  • 一种信息处理方法、系统及电子设备-201910938796.8
  • 向辉;王奇刚;师忠超;周宇 - 联想(北京)有限公司
  • 2019-09-30 - 2020-01-17 - G06N3/08
  • 本申请公开了一种信息处理方法、系统及电子设备,通过在模型训练过程中,在第i层训练模型满足第一条件时,继续进行第i+1层训练模型的迭代,以便对两个训练模型的相关信息值进行比较,从而确定两层训练模型中更优的训练模型,以保证最终得到的训练模型为所有层数的训练模型中最优的,避免了采用固定的层数进行模型训练,得到的所有训练模型均具有固定的层数,其可能并非最优训练模型的问题。
专利分类
×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top