[发明专利]训练试衣模型的方法、生成试衣图像的方法及相关装置在审

专利信息
申请号: 202210433365.8 申请日: 2022-04-24
公开(公告)号: CN115587618A 公开(公告)日: 2023-01-10
发明(设计)人: 陈仿雄 申请(专利权)人: 深圳数联天下智能科技有限公司
主分类号: G06N3/0455 分类号: G06N3/0455;G06N3/0464;G06N3/084;G06F18/214;G06T7/00;G06T3/00;G06T3/40;G06V10/82
代理公司: 深圳市六加知识产权代理有限公司 44372 代理人: 唐梦云
地址: 518000 广东省深圳市南山区粤海街道高*** 国省代码: 广东;44
权利要求书: 查看更多 说明书: 查看更多
摘要: 本申请实施例涉及图像处理技术领域,公开了一种训练试衣模型的方法、生成试衣图像的方法及相关装置,通过设计上述试衣网络的结构,解码网络采用多个级联的、间隔设置的归一化层和解码层进行构建,并且相同层次的归一化层、第一编码层和第二编码层之间存在跨层连接,从而,通过归一化层将相同层次的第一衣服特征图、第二衣服特征图和上采样特征图进行融合,使得身份特征图在解码过程中能够从不同尺度融合衣服特征,避免了衣服纹理的丢失问题,从而,能够生成高分辨率的试衣图像,并且该分高辨率的试衣图像能够具有真实自然的试衣效果。随着试衣网络的不断迭代训练,融合生成的预测试衣图像会不断地靠近真实试衣图像),即得到准确的试衣模型。
搜索关键词: 训练 试衣 模型 方法 生成 图像 相关 装置
【主权项】:
暂无信息
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳数联天下智能科技有限公司,未经深圳数联天下智能科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/202210433365.8/,转载请声明来源钻瓜专利网。

同类专利
  • 一种量化网络的构建方法、装置及相关产品-202310521313.0
  • 弓静 - 腾讯科技(深圳)有限公司
  • 2023-05-09 - 2023-10-27 - G06N3/0455
  • 本申请公开一种量化网络的构建方法、装置及相关产品,在该方法中,获取具有Transformer架构特征的模型,作为模型量化的初始网络模型;在初始网络模型的计算图中,基于预设子图规则,确定出与预设子图规则匹配的目标子图;针对目标子图设置伪量化算子,构建初始网络模型对应的量化网络。由于Transformer模型的具体量化位置是根据预先设置的子图规则进行匹配而确定的,也就是可以自动确定需要设置伪量化算子的具体位置,预设子图规则的使用,极大提升了目标子图的确定效率;且构建量化网络的过程也是自动进行的,节省人工成本,能够高效自动地构建量化网络,从而提高模型量化的效率。
  • 用于ICD编码的改进型BERT模型构建方法及ICD编码方法-202310209012.4
  • 请求不公布姓名 - 麦博(南京)智能科技有限公司
  • 2023-03-01 - 2023-10-27 - G06N3/0455
  • 本发明公开了一种用于ICD编码的改进型BERT模型构建方法及ICD编码方法;模型构建步骤为:SA1:从病案数据库抽取病案信息得到初始训练数据;SA2:数据处理得到编码模型训练数据;SB1:基于病案数据库病人病案或者电子病案,采用C‑TF‑IDF技术挖掘病案关键词,并结合病人病案内容设定bert模型预训练任务,构建医疗领域的预训练BERT模型;S2:编码模型训练数据加载预训练BERT模型中,得到改进型BERT模型。ICD编码步骤为:获取输入数据并序列化、向量化后输入到改进型BERT模型。有益效果:相比一般BERT模型编码,编码准确度得到更进一步地提升。
  • 一种基于多头注意力机制的半监督卷积网络嵌入方法-201911062490.7
  • 王旭强;张旭;杨青;刘红昌;刘乙召;田雨婷;郑阳 - 国网天津市电力公司;国家电网有限公司
  • 2019-11-02 - 2023-10-27 - G06N3/0455
  • 本发明公开了一种基于多头注意力机制的半监督卷积网络嵌入方法,包括:步骤1,输入节点文本内容,使用词向量查询的方法初始化每个词的语义表示;步骤2,构造节点文本编码器,所述节点文本编码器包括位置编码器、多头注意力机制和前馈神经网络位置编码器,节点文本编码器的输出为节点的文本向量表示,其输出为uT;步骤3,构造节点结构编码器,使用多层图卷积神经网络编码网络结构信息;步骤4,在半监督学习的框架下,将带标签节点的标签信息引入网络嵌入,将标签匹配损失与相似度损失联合优化得到最终的节点表示向量uR。该方法能更好地捕捉和融合网络的结构信息和外部信息。
  • 支持可变指数位宽的多精度Posit编解码运算装置及方法-202310971673.0
  • 王中风;李琼;方超 - 南京大学
  • 2023-08-03 - 2023-10-24 - G06N3/0455
  • 本发明提供了支持可变指数位宽的多精度Posit编解码运算装置及方法,所述装置包括多精度Posit译码器、多精度Posit运算单元和多精度Posit编码器;多精度Posit译码器接收Posit输入数据、精度模式控制信号和指数位宽es配置信号,完成译码操作,得到有效的符号、指数及尾数值输出;多精度Posit运算单元完成相应的运算并将运算结果发送给多精度Posit编码器,多精度Posit编码器完成Posit输出数据的编码。本发明实现了运行时指数位宽动态可配置,能在相同的硬件中同时支持Posit格式大动态范围和高数值精度的优势,同时实现了硬件高效的多精度Posit编解码运算。
  • 数据对获取方法、装置、设备、服务器及其集群、介质-202310993756.X
  • 张润泽;李仁刚;赵雅倩;郭振华;范宝余;王丽;王立 - 山东海量信息技术研究院
  • 2023-08-08 - 2023-10-20 - G06N3/0455
  • 本发明公开了一种数据对获取方法、装置、设备、服务器及其集群、介质,属于三维生成领域,用于通过模型高效准确的获取点云数据对应的文本描述,解决了人工标注点云数据所存在的人力成本高且效率低的技术问题。本发明中可以通过点云与文本的第一相似度度量以及图像与文本的第二相似度度量这两种维度,对由预训练的点云‑文本转换模型预测得到的点云文本数据对进行筛选,并通过筛选后的点云数据及其对应的文本描述继续对模型进行训练从而提高模型精度,最终便可以通过训练好的模型获得大量的点云文本数据对,节省了人力成本的同时提升了工作效率。
  • 编码器神经网络模型的构建方法和数据处理方法-202311182240.3
  • 张建伟;刘永超;李凌云 - 首都信息发展股份有限公司
  • 2023-09-14 - 2023-10-20 - G06N3/0455
  • 本发明提供了一种编码器神经网络模型的构建方法和数据处理方法,将多源数据样本通过初始编码器神经网络模型的输入模块输入至隐藏模块,输出融合结果;将融合结果分别输入至预测模块和度量模块,输出预测结果和度量结果;基于损失函数、多源数据样本对应的实际标签值、预测结果和度量结果确定损失值,基于损失值对初始编码器神经网络模型进行训练,直至损失值收敛,得到编码器神经网络模型。该方式可以基于多源数据样本对初始编码器神经网络模型进行优化训练,实现对多源数据的融合,由于度量结果可以表示融合结果与多源数据样本的差异性,而损失函数综合考虑预测结果和度量结果,因而基于该损失函数可以提高编码器神经网络模型的预测精度。
  • 基于多元transformer的雷电长时预测模型、方法和系统-202311027952.8
  • 吕增威;周浩东;向念文;魏振春;李科杰;徐娟;樊玉琦 - 合肥工业大学
  • 2023-08-16 - 2023-10-20 - G06N3/0455
  • 本发明涉及人工智能和雷电预警技术领域,尤其是一种基于多元transformer的雷电长时预测模型、方法和系统。本发明提出的雷电长时预测模型,对雷电数据进行去缓和处理,缓和编码模块包括缓和层、第一线性网络、第一相关性运算层和激活输出层,缓和编码模块通过相关性计算筛选高相关的时间点进行编码;通过雷电数据与时间编码逐行累加,更好地捕捉雷电数据的时间依赖性;对多维雷电数据时间序列进行去缓和处理,还原雷电发生的突然性,大大提高了预测准确率。且本发明中,采用雷电参数与雷达回波图像组合成样本,实现多种资料配合使用,取长补短,进一步提高了雷电预测的准确性,增加预测的时间长度。
  • 用于对象发现的复合自动编码器的方法和系统-202310350728.6
  • M·鲁道夫;S·罗威;M·韦林 - 罗伯特·博世有限公司
  • 2023-04-03 - 2023-10-17 - G06N3/0455
  • 提供了用于对象发现的复合自动编码器的方法和系统。一种用于机器学习系统的计算机实现的方法包括:接收输入图像,将初始相位添加到与输入图像相关联的每个像素以创建复数,将该复数发送到编码器,其中编码器被配置为向解码器输出复值潜在表示,利用解码器将复值潜在表示分解成包括实部和相关联的相位两者的复值输出,计算输入图像和复值输出的实部之间的重建误差,其中重建误差与关联于该系统的模型参数相关联,以及更新和输出与该系统相关联的模型参数,直到获得收敛阈值。
  • 问答模型的编辑方法、装置、电子设备和存储介质-202311147845.9
  • 程思源;刘庆斌;张明昊;陈曦 - 腾讯科技(深圳)有限公司
  • 2023-09-07 - 2023-10-13 - G06N3/0455
  • 本申请实施例公开了可以一种问答模型的编辑方法、装置、电子设备和存储介质,涉及大语言模型;本申请实施例可以对基础问答模型进行模型编辑处理,得到编辑后问答模型;通过编辑后问答模型,对评估指标下的测试数据中的每个测试问题内容的至少一个模态下的内容信息进行答案预测处理,确定测试问题内容对应的预测答案;针对每种评估指标的测试数据,基于测试数据中各测试问题内容对应的期望答案与预测答案,得到评估指标下的测试数据对应的识别准确率;基于各个评估指标下的测试数据对应的识别准确率,对编辑后问答模型进行优化处理,得到目标问答模型。本申请可以提高模型更新效率和输出答案的准确性。
  • 一种数据降维模型的构建方法-202310876629.1
  • 段书用;杨建华;韩旭;鲁奕君 - 河北工业大学
  • 2023-07-17 - 2023-10-13 - G06N3/0455
  • 本申请提供一种数据降维模型的构建方法,包括如下步骤:构建自编码器模型网络,其包括编码部分和解码部分;获取若干个高维数据集合,基于主成分分析法和若干个高维数据集合计算编码部分中神经元层第一层的初始化权值;根据编码部分每个神经元层的初始化权值,计算与该神经元层相邻的下一神经元层的初始化权值,直至获得所有神经元层的初始化权值;获取训练样本集,根据训练样本集对包含初始化权值的自编码器模型网络进行训练,获得自编码器模型;利用自编码器模型的编码部分作为数据降维模型,用于实现对高维数据进行降维。根据本申请提供的方法构建的数据降维模型能够对线性数据以及非线性数据进行降维,并且能够得到高质量的低维数据。
  • 可解释转导器变换器-202180093586.9
  • A·达利;M·格雷奇;M·皮罗内 - 乌姆奈有限公司
  • 2021-12-17 - 2023-10-13 - G06N3/0455
  • 可解释转导器变换器(XTT)可以是连同可解释变换器(Explainable Transformer)一起的有限状态转导器。XTT的变型可以包括可解释Transformer‑编码器和可解释Transformer‑解码器。示例性可解释转导器可以用作经训练的可解释神经网络(XNN)架构或逻辑等效架构中的部分替代品。在Transformer的编码器层和解码器层两者的子层中,可解释Transformer可以用白盒模型等效物来替换Transformer的黑盒模型组件。XTT可以利用解释和解译生成系统(EIGS)来生成解释并过滤这种解释以产生对回答、解释及其理由的解译。
  • 一种基于自标准化编解码的发电机线圈温度异常监测方法-202111447942.0
  • 陈聪;王尊;徐俊元 - 中电华创(苏州)电力技术研究有限公司
  • 2021-11-30 - 2023-10-13 - G06N3/0455
  • 本发明涉及一种基于自标准化编解码的发电机线圈温度异常监测方法,该方法包括:利用多个温度测点获取发电机线圈处于正常运行状态下的出水温度数据并进行预处理;计算同一时间点时各温度测点之间的最大温度差值,将最大温度差值按时序排列形成最大温差时间序列;分割最大温差时间序列,得到多个最大温差时间序列片段,以作为训练集;将训练集输入到神经网络模型中进行训练;获取待判断状态时间段内不同时间点的发电机线圈的出水温度数据并进行处理,将其输入至优化后的神经网络模型,以得到相应的预测值。本发明提供的监测方法有效解决了工业场景中异常数据极少导致难以建立监督模型的问题,并且对于正常和异常数据具有较高的区分度。
  • 一种基于图拓扑的过采样方法-202310685575.0
  • 董明刚;武天昊 - 桂林理工大学
  • 2023-06-09 - 2023-10-10 - G06N3/0455
  • 本发明公开了一种基于图拓扑的过采样方法。在该方法中为了能更好的解决图神经网络的数据特性带来的训练困难问题,本发明采用图拓扑的方法来解决,并利用图变分自编码器来解决过采样问题,首先获取不平衡的图数据,并搭建并训练图变分自编码器。然后,利用图变分自编码器的编码器和解码器的权重,构建生成对抗网络模型,并对其进行训练。在训练过程中,使用少数类标签和噪声作为网络输入,生成对应标签的少数类节点以及过采样节点的边。本发明能够有效的为不平衡图数据生成高质量的少数类节点,使不平衡图成为平衡图,并帮助分类器提高不平衡场景下的分类性能。
  • 一种基于深度压缩感知的空间转录组方法及装置-202310514516.7
  • 瞿昆;林俊;蒋辰 - 中国科学技术大学
  • 2023-05-08 - 2023-10-03 - G06N3/0455
  • 本发明属于分子生物学和生物信息学领域,提供了一种自编码器,包含所述自编码器的压缩感知模型CSNet,基于深度学习的压缩感知方法,以及基于深度压缩感知的空间转录组方法及装置。基于本发明的基于深度压缩感知的空间转录组方法csFISH重构的数据不仅与smFISH技术相近,而且本发明成像所用时间仅仅是smFISH技术的1/28。并且,本发明的csFISH方法不仅可以只进行少量的采样即可恢复高维数据,还克服了光学拥挤的难题,能够用低倍镜更快速地成像。该方法在保证高质量数据的同时,极大提升了成像速度。
  • 基于深层自编码网络的无线电干扰激发函数的预测方法-202310377116.6
  • 何旺龄;魏宏宇;万保权;刘云鹏;陈启宇;刘冀邱;吕铎;干喆渊;王延召;张建功 - 华北电力大学(保定);国家电网有限公司
  • 2023-04-10 - 2023-10-03 - G06N3/0455
  • 本发明公开了基于深层自编码网络的无线电干扰激发函数的预测方法,包括以下步骤:将多个自编码器AE进行级联,采用逐层贪婪训练方式,将上一级AE的隐含层输出作为下一级AE的输入,构建具有堆栈自编码器和前馈神经网络的深层自编码网络,并对深层自编码网络进行无监督预训练与有监督微调,直至网络收敛;将深层自编码网络作为预测无线电干扰激发函数值的预测模型,通过采集高海拔地区的不同降雨条件、不同海拔高度和沙尘天气条件下的自变量参数,作为深层自编码网络的输入自变量,预测处于高海拔地区的交流输电线路的无线电干扰激发函数值;本发明提出的预测方法具有更高的预测精度,并为进一步预测不同环境下无线电干扰水平提供参考。
  • 一种数据生成系统、方法、介质及设备-202310620107.5
  • 韩晗;刘美辰;赵芸伟;崔牧凡;李旭楠;王宝吉 - 国家计算机网络与信息安全管理中心
  • 2023-05-29 - 2023-09-29 - G06N3/0455
  • 本公开涉及一种对抗网络和行为事理图谱融合的传感器数据生成系统、方法、介质及设备,所述系统包括:由鉴别器和生成器组成的对抗生成网络;其中,生成器由变分自编码器和解码器组成;鉴别器,用于通过训练来区分生成器在输入随机噪声时产生的样本和从真实数据集中提取的样本;状态转移模块,用于构建参考事理图谱的马尔科夫链为不同角色生成状态转移模板。本公开提出的系统和方法在准确率和多样性方面有显著改进。同时,通过事理图谱生成的状态转移模板,本公开创造性地生成了长效性、连续性、符合事理图谱逻辑的虚拟身份个性化传感器数据集,并且可以良好地反映用户的行为特征。
  • 基于CCV-MAB的群智感知任务分配方法、装置、设备及存储介质-202310656072.0
  • 江常坤;蒋伯鸿 - 深圳大学
  • 2023-06-05 - 2023-09-29 - G06N3/0455
  • 本发明适用群智感知技术领域,提供了一种基于CCV‑MAB的群智感知任务分配方法、装置、设备及存储介质,该方法包括:获取当前群智感知问题下所有用户的用户特征和当前任务的任务特征,通过决策模型对用户特征和任务特征进行处理,得到每个用户的选中概率,根据选中概率对所有用户进行采样,得到目标用户组,通过评估模型对目标用户组内每个用户的用户特征和任务特征进行处理,得到估计奖励,根据目标用户组,通过基于CCV‑MAB的群智感知任务分配模型获得真实奖励,根据估计奖励和真实奖励,对决策模型和评估模型的模型参数进行调整,之后再进行下一轮的任务分配,如此迭代第更新模型,从而提高了群智感知任务分配的效率和任务完成的质量,进而提高了用户体验。
  • 基于变分自编码器深度聚类纵向联邦学习方法-202310246409.0
  • 赵中楠;梁晓亮;周舟 - 哈尔滨理工大学
  • 2023-03-15 - 2023-09-29 - G06N3/0455
  • 本发明涉及联邦学习领域,提出一种基于变分自编码器深度聚类纵向联邦学习方法。现有的纵向联邦学习训练过程需要对数据进行加密样本对齐,即在不公开各自数据的前提下确认双方的公共用户,使用公共用户的特征进行建模。然而在不同的建模训练中不互相重叠的用户占比不在少数,这部分数据并没有参加模型训练,可能会让联邦学习训练模型效果下降。为此,本发明结合深度聚类算法,挖掘样本数据间相关性,对缺失方数据进行过滤和补全操作,进而增加可训练数据集,提高了联邦学习效率。本发明在实验中产生了较好的效果,有一定创新性和可行性。
  • 变分自编码器的训练、图像处理以及所有权检测方法-202311093854.4
  • 刘华罗;刘绍腾 - 腾讯科技(深圳)有限公司
  • 2023-08-29 - 2023-09-29 - G06N3/0455
  • 本申请提供了一种变分自编码器的训练、图像处理以及所有权检测方法,属于人工智能技术领域。方法包括:获取样本图像的参考所有权信息;基于样本图像,通过变分自编码器中的编码模块得到样本图像的第一隐变量,变分自编码器用于在图像中嵌入所有权信息;基于样本图像的参考所有权信息和第一隐变量,通过变分自编码器中的解码模块,得到样本图像的预测图像,预测图像携带所有权信息;基于样本图像、预测图像、参考所有权信息和预测图像携带的所有权信息确定损失值;基于损失值对变分自编码器进行训练。该方法提高了在图像中嵌入所有权信息的便捷性以及提高了在图像中嵌入所有权信息时对图像的处理效率,且提高了在图像中嵌入的所有权信息的鲁棒性。
  • 一种基于Transformer模型的机械钻速时序特征的预测方法、系统、设备及介质-202310991374.3
  • 王彬;张富强;杨硕鹏;伍佳 - 西安石油大学
  • 2023-08-08 - 2023-09-29 - G06N3/0455
  • 一种基于Transformer模型的机械钻速时序特征的预测方法、系统、设备及介质,方法包括:任意选择一个油井区块,在该油井区块内采集多个油井的数据,将这些数据进行划分,得到三维矩阵形式的数据集;将得到的数据集中的异常值进行重采样,将重采样后的数据进行归一化,得到预处理后的数据集;构建Transformer模型;将得到的预处理后的数据集划分成训练集和测试集,将训练集输入到构建的Transformer模型中,得到训练后Transformer模型,将测试集输入到训练后的Transformer模型中,得到机械钻速时序特征的预测结果;系统、设备及介质,用于实现基于Transformer模型的机械钻速时序特征的预测方法;本发明具有数据完整准确、构建的模型能快速响应、高效计算能力好、预测结果准确的特点。
  • 基于对比学习的疾病分类ICD自动编码方法和装置-202310801045.8
  • 鹿文鹏;赵直倬;张鑫;张国标;管红娇;董祥军 - 齐鲁工业大学(山东省科学院)
  • 2023-07-03 - 2023-09-29 - G06N3/0455
  • 本发明公开了基于对比学习的疾病分类ICD自动编码方法和装置,属于自然语言处理及人工智能领域。本发明要解决的技术问题为如何使用自然语言处理技术为患者的电子病历文本匹配相对应的诊断编码即疾病分类编码,以减少医疗人员的工作量,提高自动编码匹配正确率,提高匹配速度,采用的技术方案为:①一种基于对比学习的疾病分类ICD自动编码方法,该方法包括如下步骤:S1、构建ICD自动编码模型训练数据集;S2、构建ICD自动编码模型;S3、训练ICD自动编码模型。②一种基于对比学习的疾病分类ICD自动编码装置,该装置包括,ICD自动编码模型训练数据集构建单元、ICD自动编码模型构建单元、ICD自动编码模型训练单元。
  • 基于生成对抗网络的稀疏码本多址编解码系统-202210869574.7
  • 段超;罗俊;张书月;尹盼盼;李星星 - 广州工商学院
  • 2022-07-21 - 2023-09-26 - G06N3/0455
  • 本发明公开了一种基于生成对抗网络的稀疏码本多址编解码系统,涉及网络编码技术领域。所述稀疏码本多址编解码系统包括SCMA TPGAN系统的编码端和SCMA TPGAN系统解码端,该基于生成对抗网络的稀疏码本多址编解码系统,可以减少网络模型参数量和运算量,生成对抗网络在约束信息生成方面表现出了较好的潜力,针对稀疏码多址码本接入系统的误码率性能的问题,基于生成对抗网络框架,提出通过构建PatchGAN作为判别器网络。PatchGAN与SRGAN的判别器网络部分相比,PatchGAN输出的是一个N×N的矩阵。在SRGAN可以提高重建信息质量的基础上,将输入信息以信息块的形式进行处理,可以减少参数量和运算量,以解决收敛慢的问题。
  • 图像生成模型的训练方法、装置、设备及存储介质-202310812476.4
  • 郭卉 - 腾讯科技(深圳)有限公司
  • 2023-07-04 - 2023-09-26 - G06N3/0455
  • 本申请公开了一种图像生成模型的训练方法、装置、设备及存储介质,涉及人工智能技术领域。所述方法包括:获取图像生成模型的训练样本集,训练样本集中包括至少一个图文对;通过表征提取模块生成人物名称对应的人物表征;通过扩散模型的前向过程,生成随机噪声图像对应的隐空间表征;通过扩散模型的后向过程和旁路模块,根据人物表征和隐空间表征,生成人物名称对应的预测图像;根据预测图像和人物图像之间的差异,对表征提取模块和旁路模块的参数进行调整,得到训练后的图像生成模型。本申请通过对表征提取模块和旁路模块进行训练,避免对经过预训练的扩散模型再次进行训练而导致模型产生过拟合的问题,提升了模型生成的图像质量。
  • 一种用于矛盾纠纷事件因果关系识别的深度学习方法-201911144453.0
  • 钱华;姜永华;钱建华;王巧荣;房查;张宏斌 - 中共南通市委政法委员会;江苏飞搏软件股份有限公司
  • 2019-11-20 - 2023-09-26 - G06N3/0455
  • 本发明涉及一种用于矛盾纠纷事件因果关系识别的深度学习方法,所述方法包括以下步骤:步骤1:获取训练语料文本;步骤2:训练语料文本预处理;步骤3:自动标注提取的每个句子数组,输出标注后的M个包含1个结果句子、1个原因句子和15随机句子的句子数组;步骤4:训练基于上下文注意力机制的因果关系识别模型;步骤5:待识别的矛盾纠纷事件描述文本预处理,输出对应的句子的语义特征向量;步骤6:将语义特征向量组合后输入训练好的因果关系识别模型中;步骤7:输出矛盾纠纷事件间的因果关系。该技术方案解决了传统的基于机器学习的分类方法的因果关系识别准确度不高的问题。
  • 特征表示模型的损失函数构建方法、装置、设备及介质-202310732284.2
  • 王俊 - 平安科技(深圳)有限公司
  • 2023-06-19 - 2023-09-19 - G06N3/0455
  • 本申请涉及人工智能以及智慧医疗领域,公开了一种特征表示模型的损失函数构建方法,包括:获取训练数据并输入编码器,得到训练数据对应的隐变量的概率分布;在概率分布中采样得到采样向量并输入解码器,得到训练数据对应的重构数据;计算训练数据以及重构数据的重构损失;计算概率分布与先验分布的对比损失;计算概率分布与先验分布的一致性损失;利用重构数据生成多个样本,计算所有样本对之间的边缘距离,并根据边缘距离计算边缘距离损失;根据重构损失、对比损失、一致性损失以及边缘距离损失,确定总损失函数。本申请的方法解决了现有损失函数中噪声分布导致的偏差,归一化指数函数的不稳定性,数据增强或掩码策略的设计难度等缺陷。
  • 用于问答的动态协同注意力网络-201780068572.5
  • 熊蔡明;V·钟;R·佐赫尔 - 硕动力公司
  • 2017-11-03 - 2023-09-19 - G06N3/0455
  • 所公开的技术涉及一种用于问答的端到端神经网络,在此称为“动态协同注意力网络(DCN)”。简而言之,DCN包括编码器神经网络和协同注意力编码器,其以所谓的“协同注意力编码”捕获问题和文档之间的交互。DCN还包括解码器神经网络和高速路最大输出网络,其处理协同注意力编码,以估计文档中回答问题的短语的开始位置和结束位置。
  • 模型自生长训练加速方法、装置、电子设备和存储介质-202310558620.6
  • 王业全;姚轶群;张正 - 北京智源人工智能研究院
  • 2023-05-17 - 2023-09-15 - G06N3/0455
  • 本发明公开了模型自生长训练加速方法、装置、电子设备和存储介质,属于人工智能技术领域。所述模型自生长训练加速方法包括,从基础神经网络结构中确定一个或多个生长维度;定义与所确定的每个生长维度相关联的基于掩码的生长算子,并利用所述生长算子对所述基础神经网络结构的所述生长维度进行扩展,以实现模型自生长训练。本发明在模型层面上实现了大模型的自生长加速,支持横向和纵向生长,在通过保值性实现知识继承的同时,降低了预训练的时间和算力成本。
  • 模型训练方法及装置、内容推荐方法及装置-202210187895.9
  • 刘冲 - 腾讯科技(深圳)有限公司
  • 2022-02-28 - 2023-09-08 - G06N3/0455
  • 本申请公开了一种模型训练方法及装置、内容推荐方法及装置,方法通过获取第一神经网络模型,第一神经网络模型包括至少一个神经网络单元,神经网络单元包括自注意力模块以及前馈模块;根据每一神经网络单元中自注意力模块与前馈模块的不同顺序组合关系生成多个第二神经网络模型;采用初始训练样本对多个第二神经网络模型进行集成训练,得到训练后的多个第二神经网络模型;基于训练后的多个第二神经网络模型对初始训练样本进行样本扩充,得到目标训练样本;利用目标训练样本对第一神经网络模型进行训练,得到目标神经网络模型。该方法可以提升训练得到的神经网络模型的准确性。
专利分类
×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top