[发明专利]一种用于图神经网络的训练方法以及相关设备在审
申请号: | 202010538179.1 | 申请日: | 2020-06-12 |
公开(公告)号: | CN111860588A | 公开(公告)日: | 2020-10-30 |
发明(设计)人: | 乔宇;王亚立;陈晨;刘健庄;岳俊 | 申请(专利权)人: | 华为技术有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 深圳市深佳知识产权代理事务所(普通合伙) 44285 | 代理人: | 聂秀娜 |
地址: | 518129 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 用于 神经网络 训练 方法 以及 相关 设备 | ||
本申请涉及人工智能领域中的小样本学习技术,公开了一种用于图神经网络的训练方法以及相关设备。方法包括:将包括测试图像和N类训练图像的训练图像集合输入图神经网络,以获取第一相似度信息和测试图像的生成分类类别,第一相似度信息指示测试图像的特征与N类中每类训练图像的特征之间的相似度;根据第一损失函数和第二损失函数对图神经网络进行训练;第一损失函数的目标为提高测试图像的特征与正确分类类别的训练图像的特征之间的相似度,第二损失函数的目标为拉近生成分类类别和正确分类类别的相似度,增设第一损失函数的约束,更加充分利用训练阶段的样本中的信息,提高图神经网络的特征表达能力,以提高图神经网络输出结果的精度。
技术领域
本申请涉及人工智能领域,尤其涉及一种用于图神经网络的训练方法以及相关设备。
背景技术
人工智能(Artificial Intelligence,AI)是利用计算机或者计算机控制的机器模拟、延伸和扩展人的智能。人工智能包括研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。目前,对基于深度学习的图神经网络进行小样本学习是人工智能一种可行的研究方向。
小样本学习指的是神经网络在预学习了一定已知类别的大量样本后,对于新的类别,只需要少量的标记样本就能够实现快速学习。但由于小样本学习中采用的新类别的样本较少,通过小样本学习的方式对图神经网络进行训练,在训练结束时,得到的图神经网络的权重参数往往不够优良,训练后的图神经网络的特征表达能力受到限制,进而影响整个图神经网络输出的处理结果的精度。
因此,一种能够提高图神经网络的分类精度的小样本学习方法亟待推出。
发明内容
本申请实施例提供了一种用于图神经网络的训练方法以及相关设备,在训练阶段增设第一损失函数,可以更加充分利用训练阶段的样本中的信息,且第一损失函数的训练目标为提高测试图像的特征与正确类别的训练图像的图节点中心之间的相似度,能够提高图神经网络的特征表达能力,进而提高整个图神经网络输出的处理结果的精度。
为解决上述技术问题,本申请实施例提供以下技术方案:
第一方面,本申请实施例提供一种图神经网络的训练方法,可用于人工智能领域的小样本学习领域中。方法包括:训练设备获取训练图像集合,训练图像集合中包括h个测试图像和N类训练图像,每类训练图像中包括至少一个训练图像,N为大于或等于1的整数。训练设备将训练图像集合输入图神经网络,以获取第一相似度信息和与测试图像对应的生成分类类别。其中,第一相似度信息指示训练图像集合中每个测试图像的特征与N类训练图像中每类训练图像的图节点中心之间的相似度,一类训练图像的图节点中心指示一类训练图像的特征;第一相似度信息具体可以表现为一个h乘N的矩阵,矩阵中每个元素指代一个测试图像的特征与一类训练图像的图节点中心的相似度。若训练图像集合中包括一个测试图像,则输出前述一个测试图像的生成分类类别;若训练图像集合中包括多个测试图像,则输出前述多个测试图像中每个测试图像的生成分类类别。训练设备根据第一相似度信息、第一损失函数、生成分类类别和第二损失函数,对图神经网络进行训练。其中,第一损失函数的训练目标为提高测试图像的特征与第一类别的训练图像的图节点中心之间的第一相似度,第二损失函数的训练目标为拉近生成分类类别和第一类别的相似度,第一类别为N类中测试图像的正确分类类别。
本实现方式中,在第二损失函数的基础上增加了第一损失函数,来进一步约束图神经网络的训练过程,可以更加充分利用训练阶段的样本中的信息;此外,由于若测试图像的特征与正确分类类别的特征的相似度越高,则证明图神经网络的特征表达能力越强,且整个图神经网络越容易将测试图像分类至正确类别,从而提高整个图神经网络输出的处理结果的精度。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华为技术有限公司,未经华为技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010538179.1/2.html,转载请声明来源钻瓜专利网。