[发明专利]类相关性预测改进方法、装置、计算机设备及存储介质有效
| 申请号: | 202211559865.2 | 申请日: | 2022-12-06 |
| 公开(公告)号: | CN115879514B | 公开(公告)日: | 2023-08-04 |
| 发明(设计)人: | 杜杰;王晶;刘鹏;汪天富 | 申请(专利权)人: | 深圳大学 |
| 主分类号: | G06N3/047 | 分类号: | G06N3/047;G06N3/08;G06V10/764;G06V10/82 |
| 代理公司: | 深圳市精英专利事务所 44242 | 代理人: | 李燕娥 |
| 地址: | 518000 广东省深*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 相关性 预测 改进 方法 装置 计算机 设备 存储 介质 | ||
本发明实施例公开了类相关性预测改进方法、装置、计算机设备及存储介质。所述方法包括:获取待预测图像,以得到样本集;构建预测网络以及损失函数;利用所述样本集对所述预测网络进行训练,对训练所得的结果进行规范化处理,以得到预测概率值;采用所述损失函数结合所述预测概率值对训练后的预测网络进行调整;其中,所述损失函数包括交叉熵损失函数以及类损失函数;所述类损失函数包括用于拉近相似类的网络输出值产生的损失的类内损失函数以及用于拉远不相似类的预测产生的损失的类间损失函数。通过实施本发明实施例的方法可实现在保证准确率的情况下,利用先验知识来拉近相似的两类的网络输出值,拉远不相似的两类的网络输出值,提高神经网络的泛化能力的目的。
技术领域
本发明涉及图像分类方法,更具体地说是指类相关性预测改进方法、装置、计算机设备及存储介质。
背景技术
图像分类是计算机视觉研究中一个重要的基本问题,是其他视觉任务的基础,如医学图像分类任务在临床治疗中具有重要的辅助作用。然而,如支持向量机方法等传统的图像分类方法在性能上已经达到了极限,并且使用它们需要花费大量的时间和精力来选择和提取分类特征,深度神经网络作为一种新兴的机器学习方法,其在不同分类任务中的潜力已被证明,值得一提的是,卷积神经网络在不同的图像分类任务中取得了最先进的性能。现今,研究人员一直在研究通过更深或更宽的网络结构来提高分类精度的办法,然而深度神经网络存在因参数量大而导致的泛化能力不佳的问题。针对提升网络泛化性能的问题,主流的方法是在神经网络中引入正则化方法。
已有工作提出一种正则化方法来惩罚相似样本之间的预测分布以达到提高神经网络的泛化性能。通过先验知识,可以知道在特征空间上相似的两类会比不相似的两类距离更近,即猫和狗之间的距离会小于猫和卡车之间的距离。而且规范化卷积神经网络的预测值是有效的,因为模型含有最简洁的知识。由此可知,对相似的两类的预测值应该拉近,不相似的两类的预测值应该拉远。该工作已考虑到拉近同类的距离,但未考虑到类间的相关性,即对不相似的两类的预测值应该拉远,因此其对提高分类网络的泛化性能上仍存有局限性;传统的交叉熵损失函数并未考虑到这种预测分布的一致性,也就会导致对某类的预测值较大,而对其他类的预测值较小,无法指出样本之间的相似性与差异性。
因此,有必要设计一种新的方法,实现在保证准确率的情况下,利用先验知识来拉近相似的两类的预测值,拉远不相似的两类的预测值,提高神经网络的泛化能力的目的。
发明内容
本发明的目的在于克服现有技术的缺陷,提供类相关性预测改进方法、装置、计算机设备及存储介质。
为实现上述目的,本发明采用以下技术方案:类相关性预测改进方法,包括:
获取待预测图像,以得到样本集;
构建预测网络以及损失函数;
利用所述样本集对所述预测网络进行训练,并对训练所得的结果进行规范化处理,以得到预测概率值;
采用所述损失函数结合所述预测概率值对训练后的预测网络进行调整;
其中,所述损失函数包括交叉熵损失函数以及类损失函数;所述类损失函数包括用于拉近相似类的网络输出值产生的损失的类内损失函数以及用于拉远不相似类的预测产生的损失的类间损失函数。
其进一步技术方案为:所述利用所述样本集对所述预测网络进行训练,并对训练所得的结果进行规范化处理,以得到预测概率值,包括:
将所述样本集输入至所述预测网络中进行特征提取,以得到网络输出值;
对所述网络输出值结合预设参数形成softmax层的输入值,并在softmax层计算预测概率值。
其进一步技术方案为:所述所述对所述网络输出值结合预设参数形成softmax层的输入值,并在softmax层计算预测概率值,包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳大学,未经深圳大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211559865.2/2.html,转载请声明来源钻瓜专利网。





