[发明专利]一种具有知识迁移判别能力的数据分类方法在审
申请号: | 202210568499.0 | 申请日: | 2022-05-24 |
公开(公告)号: | CN114861813A | 公开(公告)日: | 2022-08-05 |
发明(设计)人: | 李兴海;马建伟;臧绍飞;吕进锋;马超;马晓毓;张淼 | 申请(专利权)人: | 河南科技大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 郑州豫鼎知识产权代理事务所(普通合伙) 41178 | 代理人: | 轩文君 |
地址: | 471000 河南*** | 国省代码: | 河南;41 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 具有 知识 迁移 判别 能力 数据 分类 方法 | ||
本发明涉及一种具有知识迁移判别能力的数据分类方法,本发明有效解决了现有分类模型无法针对源域与目标域数据分布不同的情况下进行分类且分类精度较低的问题;解决的技术方案包括:本方案通过设计加权MMD(Weights Maximum Mean Divergence,称为WMMD),提升了系统跨域知识迁移能力,为了区分不同类型数据,引入LDA(Linear Discriminant Analysis),对源域样本和目标域样本进行降维,使降维后的数据具有类内方差最小,类间方差最大,相对于已有的分类模型,提高了分类精度。
技术领域
本发明涉及图像、文本数据分类技术领域,尤其涉及一种具有知识迁移判别能力的数据分类方法。
背景技术
近来,机器学习在自动驾驶、语音识别、计算机视觉、目标检测等领域取得很大成功,但是,对于某些真实场景,它仍然有一些限制,构建精确的机器学习模型需要大量不同类型的训练样本,然而在现实中,获取的数据通常是未分类的;
现有的分类模型如:Softmax回归适用于多分类,具有应用简单、易于训练、结果直观的优点,因此,受到研究人员的更多关注,传统Softmax采用交叉熵损失函数进行优化,但并不能保证得到优化后的特征分布,Softmax分类器理想的应用场景是训练样本与测试样本具有相同的特征分布,然而,在许多情况下,收集满足要求的训练样本通常是耗时的、昂贵的,这使得Softmax模型的分类结果并不令人满意;
针对训练样本与测试样本不满足相同分布的情况,训练迁移学习是解决上述问题的一种比较有效的方法,然而,现有的迁移学习方法只关注源域(训练样本)和目标域(测试样本)的整体分布信息和全局结构信息,忽略单个样本对全局度量贡献的差异性,从而影响了分类器性能;
鉴于以上我们提供一种具有知识迁移判别能力的数据分类方法用于解决以上问题。
发明内容
针对上述情况,本发明提供一种具有知识迁移判别能力的数据分类方法,本方案通过设计权重系数以及加权WMMD,提升了系统跨越知识迁移能力,为了区分不同类型数据,引入LDA,对源域样本和目标域样本进行降维,使降维后的数据具有类内方差最小,类间方差最大,相对于已有的分类模型,提高了分类精度。
一种具有知识迁移判别能力的数据分类方法,其特征在于,包括源域、目标域、特征空间、Softmax分类器、预测结果,其过程包括以下步骤:
S1:源域样本和目标域样本经特征映射后,在特征空间中可找到它们近似的相同分布;
S2:在特征空间中进行WMMD和Linear Discriminant Analysis(LDA)运算,WMMD单元计算源域样本与目标域样本间边沿分布和条件分布差异,尽量消除源域与目标域之间的差异,Linear Discriminant Analysis(LDA)单元,目的是尽量缩小同类样本之间距离,最大化不同样本之间的距离;
S3:Softmax分类器分别计算目标域中每个样本所对应的每个标签下的概率,选择概率值最大值对应的标签,即为该样本的标签,完成样本分类;
S4:预测结果保存目标域样本分类结果,即每个样本对应的标签。
上述技术方案有益效果在于:
(1)在源域(训练样本)与目标域(测试样本)数据分布不同的情况下,把在源域中学习到的分类模型,利用知识迁移方法应用于目标域分类任务;
(2)本方案通过设计加权MMD(称为WMMD,MMD是一种度量方法,度量源域样本与目标域样本不同类型数据之间的距离,WMMD在MMD的基础上考虑了不同类型样本在度量时贡献不同,通过度量时增加权重系数W实现),提升了系统跨越知识迁移能力,从而实现了把在源域中学习到的分类模型,利用知识迁移方法应用于目标域分类任务,相对于已有的分类模型,提高了分类精度;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于河南科技大学,未经河南科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210568499.0/2.html,转载请声明来源钻瓜专利网。