[发明专利]神经网络生成装置、神经网络生成方法以及神经网络生成程序在审

专利信息
申请号: 202180044360.X 申请日: 2021-06-30
公开(公告)号: CN115702426A 公开(公告)日: 2023-02-14
发明(设计)人: 富田浩明;J·O·尼科尔斯 申请(专利权)人: 利普麦德株式会社
主分类号: G06N3/0475 分类号: G06N3/0475;G06N3/063;G06N3/08
代理公司: 北京信诺创成知识产权代理有限公司 11728 代理人: 郝文婷;刘金峰
地址: 日本*** 国省代码: 暂无信息
权利要求书: 查看更多 说明书: 查看更多
摘要: 神经网络生成装置是生成对神经网络进行运算的神经网络执行模型的神经网络生成装置,其包括:执行模型生成部,基于所述神经网络执行模型所运行的硬件的硬件信息、以及所述神经网络的网络信息,生成所述神经网络执行模型;以及学习部,生成所生成的所述神经网络执行模型的学习完毕参数。
搜索关键词: 神经网络 生成 装置 方法 以及 程序
【主权项】:
暂无信息
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于利普麦德株式会社,未经利普麦德株式会社许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/202180044360.X/,转载请声明来源钻瓜专利网。

同类专利
  • 用平均平滑使图像到图像模型压缩-202280018987.2
  • 任健;柴梦蕾;谢尔盖·图利亚科夫;金庆 - 斯纳普公司
  • 2022-02-25 - 2023-10-27 - G06N3/0475
  • 用于使图像到图像模型压缩的系统和方法。生成式对抗网络(Generative Adversarial Network,GAN)在生成高保真图像方面取得了成功。一种图像压缩系统和方法向类依赖参数(CLADE)添加一种新的变体,称为CLADE‑Avg,其在不引入额外计算成本的情况下恢复图像质量。在参数层和归一化层之间执行额外的平均平滑层。与CLADE相比,该图像压缩系统和方法使突变边界平滑,并引入更多可能的缩放和移位值。此外,用于平均平滑的内核尺寸可以被选择为超参数,例如3×3的内核尺寸。该方法不引入额外的乘法,而只引入加法,因此不会引入较多计算开销,因为除法可以在训练后被吸收到参数中。
  • 时间预测模型训练方法、时间预测方法及装置-202210375350.0
  • 姜正申 - 腾讯科技(深圳)有限公司
  • 2022-04-11 - 2023-10-27 - G06N3/0475
  • 本发明公开了一种时间预测模型训练方法、时间预测方法及装置,在提取路线特征集合的第一路线特征向量之后,对第一路线特征向量进行维度转换得到第二路线特征向量,根据第一路线特征向量和第二路线特征向量进行时间预测得到预估到达时间,以及对第二路线特征向量进行向量拟合得到路线重建特征向量,然后根据预估到达时间和实际到达时间得到时间预测损失值,以及根据路线重建特征向量和所有路段特征信息得到重建损失值,接着根据时间预测损失值和重建损失值对时间预测模型的参数进行修正。本发明实施例能够提高对预估到达时间的预测准确性。本发明可以广泛应用于例如云技术、人工智能、智慧交通、辅助驾驶等各种场景的信息处理技术中。
  • 基于GAN网络的数据增强方法、设备以及介质-202310942682.7
  • 王璟璟;窦胜尧;宋戈;刘强;赫占玫;蔡玉浩 - 山东科技大学
  • 2023-07-31 - 2023-10-13 - G06N3/0475
  • 本发明属于数据增强技术领域,具体公开了一种基于GAN网络的数据增强方法、设备以及介质。本发明针对数据集小等缺点,提出利用改进的GAN网络对信号进行数据增强,从而扩大数据集,针对当前GAN网络收敛速度慢、生成一些固定样本的问题,本发明设计了一种自适应波形检测器和小批量判别器,从而为提高GAN网络收敛速度提供了一条可行的途径。在此基础上,本发明构建了包括卷积神经网络模块的生成器等结构,通过所提出得到数据增强模型,有效地扩大了数据集的大小。
  • 一种基于双判别器生成式对抗网络的异常数据检测方法-202310765861.8
  • 曹杰;岳东;丁达;陶海成;缪佳伟;魏祥森 - 南京财经大学;南京邮电大学
  • 2023-06-27 - 2023-10-10 - G06N3/0475
  • 一种基于双判别器生成式对抗网络的异常数据检测方法,S1、输入训练数据Dt到自动编码器中获得重构数据Dre,将获得的重构数据和原始数据输入到过滤器中,基于重构数据和原始数据之间的重构误差计算伪标签,通过伪标签将数据划分为伪正常数据和伪异常数据;S2、将S1中获得的伪异常数据输入到动态字典中,动态字典在每次迭代中将存储的数据和输入的数据对比,筛选出异常数据保存到动态字典中;S3、将S2中获得的伪正常数据输入到正常判别器中;S4、根据当前训练的步骤设计自适应权重系数,基于自适应权重系数计算重构误差的损失函数;S5、根据S3得到的两个判别器和步骤S4得到的重构误差损失函数,并迭代更新,得到生成器。
  • 一种基于深度学习的HRRP有目标对抗样本生成方法-202010141577.X
  • 黄腾;杨碧芬;闫红洋;姚炳健;陈湧锋 - 广州大学
  • 2020-03-03 - 2023-10-03 - G06N3/0475
  • 本发明属于雷达图像识别领域,为基于深度学习的HRRP有目标对抗样本生成方法。包括:选取一个样本作为原始样本并初始化算法的参数;基于FGSM算法,采用迭代方法计算扰动并更新样本,当模型将对抗样本识别成目标类别时停止迭代;将该对抗样本剔除掉原始样本数据,获得所选样本的有目标扰动;继续迭代,当模型对目标类别的置信度提高到期望值时停止迭代,获得更新后的对抗样本;将对抗样本剔除掉原始样本数据,获得扰动;将扰动大小缩放到与给定的通用扰动功率相等,获得有目标通用扰动;将通用扰动添加至任意样本,生成对抗样本。该方法在基于深度学习的一维雷达距离像目标识别下,生成有目标对抗样本,为提高雷达目标识别安全性提供帮助。
  • 一种面向模型生成文本重复退化现象的优化生成方法-202310919239.8
  • 冯好国;徐青伟;严长春;裴非;范娥媚 - 北京知呱呱科技服务有限公司;知呱呱(天津)大数据技术有限公司
  • 2023-07-26 - 2023-10-03 - G06N3/0475
  • 本申请公开了一种面向模型生成文本重复退化现象的优化生成方法,其中采用了注意转换(朝向反射)机制及其与注意力机制组合形成的注意机制,并引入遗传算法,丰富输入文本多样性,与神经网络注意机制结合,兼顾了模型的理解能力和生成能力,弱化了生成文本重复退化现象;当发生概率最优欺骗时,使得生成模型在朝向反射机制引入文本新异性基础上,进行注意力切换,减弱生成重复等无意义文本序列的概率,达到干预模型生成文本重复退化现象的目的;模型损失函数作为适应度函数,实现压缩和生成模型训练成为一个整体,能够学习到压缩和生成模型训练的内在关系并进行利用,有利于产出全局最优压缩文本和生成模型。
  • 一种基于GAN的遗忘衡量模型及其工作方法-202310739381.4
  • 左知微;唐卓;李肯立;肖雄;向婷;刘梦涵 - 湖南大学
  • 2023-06-21 - 2023-09-29 - G06N3/0475
  • 本发明公开了一种基于GAN的遗忘衡量模型,包括依次连接的自编码器、使用训练集训练ResNet18得到的原始模型、以及在原始模型上应用遗忘策略之后得到的遗忘模型,自编码器包含一个编码器和一个解码器,编码器的第一层是二维卷积层,输入的通道数为3,输出通道数为64。卷积核的大小为3x3,步长为1,填充为1。激活函数为LeakyReLU,当输入值小于0,将输出设置为输入值的0.2倍,第二层是二维卷积层,输入的通道数为64,输出的通道数为128。卷积核的大小为4x4,步长为2。本发明能够解决现有遗忘衡量模型存在的准确率、召回率并不能精确地衡量特定数据被遗忘后,模型对该数据的处理能力是否完全消除,现有指标无法精确衡量模型对以往数据的处理能力的变化的技术问题。
  • 一种烟火图像生成方法及系统-202310702519.3
  • 吴晓;周盛源;李威;何廷全;胡东风 - 西南交通大学
  • 2023-06-14 - 2023-09-29 - G06N3/0475
  • 本发明涉及烟火图像技术领域,公开了一种烟火图像生成方法及系统,该方法,基于真实图像和掩膜,构建并训练生成对抗网络,在训练生成对抗网络过程中设置损失作为烟火生成的约束,从而生成烟火图像;其中,烟火生成的约束包括对生成的烟火位置、烟火形状、烟火大小之中的一种或多种的约束。本发明解决了现有技术存在的以下问题:生成图像整体的真实程度较低,难以进行可控制位置、形状、大小的烟火目标生成等。
  • 法律咨询回复方法、法律领域生成式大模型训练方法-202311107545.8
  • 吴雅萱;任梦星;刘迎建;彭菲 - 汉王科技股份有限公司
  • 2023-08-30 - 2023-09-29 - G06N3/0475
  • 本申请公开了一种法律咨询回复方法、法律领域生成式大模型训练方法,属于自然语言处理技术领域。所述方法包括:基于非结构化法律文本数据和通用中文数据,对预设的生成式大模型进行预训练,得到第一微调大模型;基于针对各法律细分领域预先构建的指令数据集,对第一微调大模型进行低秩矩阵增量权重训练,得到法律细分领域对应的第二微调大模型;根据预先构建的评分排序数据集和第二微调大模型,构建奖励模型;以第二微调大模型作为智能体,以奖励模型作为环境,对第二微调大模型进行强化学习训练,得到法律领域生成式大模型。在采用本方法训练得到的法律领域生成式大模型,进行法律咨询回复时,可以提升大模型生成回复文本的专业性。
  • 生物大脑中意识学习的发展网络模型-202310285729.7
  • 翁巨扬 - 间尼赛码(深圳)科技有限公司
  • 2023-03-22 - 2023-09-26 - G06N3/0475
  • 本发明涉及一种生物大脑中意识学习的发展网络模型。大脑是如何工作的、学习的?它的意识是如何产生的?学习需要意识吗?这四个问题的整体计算模型在很大程度上仍然缺失。为了整体地和近似地解决以上四个问题,本发明由一个发育网络3(DN‑3)组成,它从单个细胞开始生长并经历产前发育和产后发育,具有适用于任何意识的完全流动的系统结构。大脑排版在封闭的颅骨内自动地进行。此网络通过即时活动变得越来越有意识。本发明提供了一个令人惊讶的洞察力,即意识是如何为大脑在每个瞬间的学习所递归必要的,称为“意识学习”。本生物模型在视觉、听觉、自然语言理解和规划方面得到了DN‑1和DN‑2机器学习实验的计算支持——所有这些实验都没有称为后选择的协议缺陷。
  • 基于端到端生成对抗网络的非接触式生理信号测量方法-202010870622.5
  • 宋仁成;陈欢;成娟;李畅;刘羽;陈勋 - 合肥工业大学
  • 2020-08-26 - 2023-09-26 - G06N3/0475
  • 本发明公开了一种基于端到端生成对抗网络的非接触式生理信号测量方法,其步骤包括:1处理视频数据得到色度信号,将参考信号用级数展开获得多个标签信号,并获取对应的运动信号;2构建生成对抗网络,设计生成器和判别器的网络结构,采用3D网络模块和多个1D网络模块级联构成引导式的多标签生成器,采用多个卷积块构成判别器;3生成器多个网络模块的损失函数与对抗损失的加权和作为损失函数,判别器以最小二乘损失作为损失函数;4将视频数据输入生成对抗网络训练,调整网络参数,得到最优模型。本发明能够得到较为准确的rPPG信号,为基于视频的生理参数监测的实际应用提供解决方案。
  • 一种基于对抗式训练的多模态适配网络学习方法-202310694109.9
  • 邵镇炜;余宙;罗同桉;俞俊 - 杭州电子科技大学
  • 2023-06-13 - 2023-09-19 - G06N3/0475
  • 本发明公开了一种基于对抗式训练的多模态适配网络学习方法,包括如下步骤:S1、构建对抗式多模态适配网络,包括多模态模型的构建和对抗式扰动生成器的构建;S2、设置损失函数,包括原始损失、扰动后损失和扰动差异损失;S3、所构建的多模态模型朝着最小化所设置的损失函数的损失方向优化,所构建的对抗式扰动生成器朝着最大化所设置的损失函数的损失方向进行优化。该方法在现有的多模态模型上搭建用于适配下游任务的适配器和用于生成对抗式噪声扰动的扰动生成器,并将适配器与扰动生成器统一在一个对抗式训练的框架中进行端到端的训练,使得多模态模型在对下游任务的适配上能够获得更好的稳健性与泛化性。
  • 任务处理方法、电子设备及存储介质-202311042178.8
  • 王凯;周躜;蔡寅翔;张欣 - 阿里巴巴(中国)有限公司
  • 2023-08-16 - 2023-09-15 - G06N3/0475
  • 本申请公开了一种任务处理方法、电子设备及存储介质,涉及大模型技术、序列数据生成、文本生成领域。其中,该方法包括:获取多个序列数据生成任务,其中,序列数据生成任务用于基于序列数据生成任务包含的输入序列数据,生成输出序列数据;基于多个序列数据生成任务包含的输入序列数据,预测得到输出序列数据的序列长度;基于输出序列数据的序列长度,对多个序列数据生成任务进行分组,得到至少一个任务集合;并行执行同一个任务集合包含的序列数据生成任务,得到输出序列数据。本申请解决了相关技术中通过神经网络模型进行序列数据生成的效率较低的技术问题。
  • 一种基于空间注意力的文本到图像生成方法及系统-202110474295.6
  • 季薇;罗盛耀;李云 - 南京邮电大学
  • 2021-04-29 - 2023-09-15 - G06N3/0475
  • 本发明提供一种基于空间注意力的文本到图像生成方法及系统,将文本描述输入文本编码器输出句子向量;生成服从高斯分布的随机噪声向量;生成器包括三个空间注意力模块和六个依次连接的上模块,其中位于第一个的上模块连接全连接层,位于最后三个的上模块分别连接一个空间注意力模块,三个空间注意力模块共同连接一个特征组通道归并模块,特征组通道归并模块连接卷积层,在生成器中引入了空间注意力机制,对特征图中不同区域分配不同程度的注意力,加强特征图中最有用的特征,抑制无用的特征,避免了产生伪像的问题;引入了特征组通道归并模块,充分融合文本信息,以增强提取得到特征的表达能力,使生成的图像更加清晰,并且符合给定的文本描述。
  • 生成网络的特征蒸馏方法、装置、电子设备及存储介质-202211242759.1
  • 季向阳;杨宇;程笑天;刘畅 - 清华大学
  • 2022-10-11 - 2023-09-15 - G06N3/0475
  • 本申请涉及计算机视觉与深度学习技术领域,特别涉及一种生成网络的特征蒸馏方法、装置、电子设备及存储介质,其中,包括:获取目标生成网络中的多个特征图;将其输入至预设挤压模块,并从中挤压出满足预设变换不变性的预设图像特征;从预设数据增广中随机抽样出图像变换算子,并利用图像变换算子对预设图像特征进行特征蒸馏,得到目标生成网络在合成图像领域的图像;并将其输入至预设学生网络,同时输入真实图像进行自监督对比学习,使得目标生成网络的蒸馏表征扩张至真实图像领域,实现目标生成网络的特征蒸馏。由此,解决了无法从GAN的生成器中蒸馏出价值的表征信息,无法充分利用或将表征迁移至下游任务,降低了表征提取网络的性能等问题。
  • 通过对抗网络自动生成验证性质的模型验证方法和系统-202110957915.1
  • 高洪皓;戴宝斌;周琳;施建刚;陈洁 - 上海大学;上海上大海润信息系统有限公司
  • 2021-08-20 - 2023-09-15 - G06N3/0475
  • 本发明涉及一种通过对抗网络自动生成验证性质的模型验证方法和系统,方法包括通过生成器自动获取验证性质,采用正则表达式并基于CTL语法对获取的验证性质进行语法校验后,用于进行模型验证;生成器的训练过程包括:获取采用计算树时序逻辑公式CTL描述的验证性质;将其转换成能被生成对抗网络所能识别的输入形式,作为训练数据;构建生成对抗网络,该生成对抗网络包括生成器和判别器,生成器的输入为随机噪声,判别器的输入为生成器生成的数据和训练数据,判别器输出期望奖励用于更新生成器的参数;采用对抗式训练的方法迭代地训练生成器和判别器,直至达到收敛。与现有技术相比,本发明能够实现高效且自动生成验证性质,支持提高模型验证的效率。
  • 基于反事实常识因果推理的视觉对话生成方法及装置-202310685976.6
  • 刘安安;黄晨曦;徐宁;张勇东 - 天津大学
  • 2023-06-09 - 2023-09-12 - G06N3/0475
  • 本发明公开了一种基于反事实常识因果推理的视觉对话生成方法及装置,方法包括:将常识引入视觉对话任务,构建基于常识融合的视觉对话因果图,计算输入特征对答案预测的总效应;基于视觉对话因果图,构建其对应的反事实因果图;针对反事实因果图,根据自然直接效应估计引入的常识产生的有害偏差对答案预测的影响,并将其从总效应中去除;采用模型集成训练视觉对话模型,以交叉熵和KL散度损失作为训练目标得到答案预测结果;将图像特征、对话历史特征、常识特征及当前问题特征进行整合,送入解码器中,最小化损失函数,优化网络参数,最后为灾害救援现场提供真实的灾害环境信息。装置包括:处理器和存储器。
  • 图像生成模型的轻量化方法及装置、电子设备、介质-202310714433.2
  • 熊荔;王景琳 - 中国电子科技集团公司信息科学研究院
  • 2023-06-16 - 2023-09-12 - G06N3/0475
  • 本公开实施例涉及图像处理领域,提供一种图像生成模型的轻量化方法及装置、电子设备、介质,方法包括:构建基于StyleGAN的教师模型,并对教师模型进行预训练;教师模型包括映射网络和第一合成网络;第一合成网络包括多个分辨率模块;分辨率模块包括上采样单元及与其连接的注意力机制层;构建基于StyleGAN的学生模型;学生模型包括预训练后的映射网络及第二合成网络,第二合成网络包括多个风格化模块,风格化模块设置有风格化参数和噪声;对学生模型和预训练后的教师模型进行联合训练,将联合训练后的学生模型作为图像生成模型,以利用图像生成模型生成目标图像。本公开实施例可提高模型性能,有效实现图像生成模型的轻量化。
  • 一种文本生成方法、装置及计算设备-202111091840.X
  • 吴志勇;裴兴;史佳慧;周晨;骆世顺 - 咪咕数字传媒有限公司;咪咕文化科技有限公司;中国移动通信集团有限公司
  • 2021-09-17 - 2023-09-08 - G06N3/0475
  • 本发明公开了一种文本生成方法、装置及计算设备。方法包括:对待处理视频的各视频帧图像进行特征处理,得到视频特征向量;基于视频特征向量,获取任一视频帧图像与待处理视频中的其他视频帧图像的关联关系,根据关联关系提取待处理视频对应的视频核心内容特征向量;获取与待处理视频关联的衍生数据、比赛统计数据,对衍生数据、比赛统计数据进行向量化处理,得到衍生数据特征向量、比赛统计数据特征向量;对视频核心内容特征向量、衍生数据特征向量、比赛统计数据特征向量进行解码处理,得到待处理视频对应的文本内容,提升了文本内容生成的准确性和可靠性,解决了生成成本高的问题。
  • 一种结合GAN与时序数据周期性分解的GDP预测方法-202310516798.4
  • 王程;陈上远;董丽芳;安娜 - 山西清众科技股份有限公司
  • 2023-05-09 - 2023-09-05 - G06N3/0475
  • 本发明提供了一种结合GAN与时序数据周期性分解的GDP预测方法,属于GDP预测技术领域;解决了目前GDP预测方法中没有充分考虑数据之间的时序以及其周期性特征导致预测结果不准确的问题;包括如下步骤:数据选取:选取多个季度的真实GDP数据及其相关数据;通过特征筛选的方式,将与当个季度GDP相关的特征筛选出来;构建GAN网络,GAN网络包括生成器和判别器,将原始GDP数据和经过特征筛选后再输入至GAN网络得到的生成GDP数据分别用STL时序分解算法进行周期性时序分解,得到各自的经济趋势项、季节变化项和随机波动项,然后针对经济趋势项和季节变化项分别构建判别器并训练,将两个判别器的结果集成得到最终的判别器;本发明应用于GDP预测。
  • 生成对抗网络训练方法、装置、计算机设备及存储介质-202310121702.4
  • 袁钘;芦振寰;黄灿 - 深圳华声医疗技术股份有限公司
  • 2023-02-16 - 2023-09-05 - G06N3/0475
  • 本发明公开了一种生成对抗网络训练方法、装置、计算机设备及存储介质。该方法包括:获取训练数据,训练数据包括目标超声图像和目标掩膜图像;对目标超声图像进行预处理,获取至少一个目标通道图像;基于目标超声图像、目标掩膜图像和至少一个目标通道图像训练生成对抗网络的生成网络,获取目标生成网络;基于目标超声图像、目标掩膜图像和至少一个目标通道图像训练生成对抗网络的判别网络,获取目标判别网络。该方法通过对目标超声图像进行预处理,获取至少一个目标通道图像,以增强每一目标通道图像与目标超声图像之间的差异性,可保障训练所形成的生成对抗网络可快速生成大量差异性较大的超声图像。
  • 扩散模型的优化方法、图像生成方法、电子设备及介质-202310475194.X
  • 王延峰;秦伊明;姚江超;张娅 - 上海人工智能创新中心;上海交通大学
  • 2023-04-27 - 2023-08-22 - G06N3/0475
  • 本发明公开一种扩散模型的优化方法,其首先在迷你批次中从扩散过程的马尔可夫链路径中对步骤进行随机采样,得到当前批次中的步骤t,然后对步骤t的图像中的每个像素点进行随机加噪,得到步骤t的噪声图像,并基于其通过模型对原图进行预测,得到模型预测的噪声,然后计算模型预测的噪声与真实噪声之间的均方损失,最后从遵循预设分布的标签集合中进行采样,得到额外的随机标签,并基于随机标签对噪声图像的噪声进行重新预测,并计算分布调整损失。该方法在采样过程中调整条件转移概率,隐含地迫使生成的图像在每个采样步骤中逼近目标先验分布,补全了针对基于长尾分布数据训练更稳健的生成模型方向的研究空缺。
  • 基于级联注意力机制的改正单图生成对抗网络的设计方法-202111097886.2
  • 刘宝弟;赵丽飞;姜文宗;王延江;刘伟锋 - 中国石油大学(华东)
  • 2021-09-18 - 2023-08-22 - G06N3/0475
  • 本发明公开了一种基于级联注意力机制的改正单图生成对抗网络的设计方法,属于模式识别技术领域,在生成对抗网络的基础上,嵌入级联注意力机制的注意力信息,用于图像处理任务,能够很好的利用图像特征中通道和像素信息的重要程度,提高生成对抗网络模型对于图像特征的学习性能。设计的级联通道注意力机制和级联空间注意力机制,可以有效的消除单一图像中特殊点对注意力机制的影响,通过将输入图像特征与注意力机制级联,进一步提高生成对抗网络模型的稳定性和生成图像的质量,将所述级联注意力机制构成网络模块集成在改正单图生成对抗网络中,使得改正单图生成对抗网络可以更好地学习图像复杂的全局特征。
专利分类
×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top