[发明专利]词典生成装置及方法、评估装置及方法、以及存储介质有效
申请号: | 201810051692.0 | 申请日: | 2018-01-16 |
公开(公告)号: | CN108320024B | 公开(公告)日: | 2022-05-31 |
发明(设计)人: | 梁卓琳;御手洗裕辅;龙本将史;真继优和 | 申请(专利权)人: | 佳能株式会社 |
主分类号: | G06N5/02 | 分类号: | G06N5/02;G06T7/00 |
代理公司: | 北京怡丰知识产权代理有限公司 11293 | 代理人: | 迟军;李艳丽 |
地址: | 日本东京都*** | 国省代码: | 暂无信息 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 词典 生成 装置 方法 评估 以及 存储 介质 | ||
本发明涉及词典生成装置及方法、评估装置及方法、以及存储介质。本发明的实施例旨在具有少数数据的高表现能力、同时防止多数数据的表现能力的降低的适当词典的学习。生成用于判别待判别的数据是否属于特定类别的词典的词典生成装置包括:生成单元,其被构造为基于属于所述特定类别的学习数据来生成第一词典;以及选择单元,其被构造为使用所生成的第一词典来估计各个部分处的学习数据与第一词典的匹配程度,并且基于估计的匹配程度来选择学习数据的一部分,其中,所述生成单元基于所选择的学习数据的一部分来生成第二词典。
技术领域
本发明涉及用于指定数据类别的词典学习技术。
背景技术
作为用于确定类别未知的数据是否属于特定类别的传统方法,存在如下方法:提取属于特定类别的许多数据共同的特征,并且根据是否能够从未知数据中提取出相似特征来做出确定。词典学习被提出作为用于提取关于特定类别的共同特征的方法。词典学习是用于获得表示多维数据空间的若干基准数据并且生成由基准数据的集合构成的词典的技术。根据属于特定类别的数据来生成词典,因此能够适当地表现特定类别的数据。另外,当确定类别时,使用来自词典的适当基准数据,针对类别未知的数据重构数据,并且根据诸如重构误差的指标来计算表现数据可能属于特定类别的似然度。
用于确定基准数据的方法与词典的表现能力有关。在Giacomo Boracchi et al.,2014,Novelty Detection in Images by Sparse Representations,in Proceedingsof IEEE Symposium on Intelligent Embedded Systems,pp.47-54(以下称为第一非专利文献)中,描述了如下技术:为了表现正常的扫描电子显微镜(SEM)图像,迭代地校正基准数据,以降低整个学习数据的重构误差的平均值。此外,第一非专利文献描述了如下方法:为了检测图像中的异常部分,使用通过词典计算出的重构信息与正常范围的偏离程度。
然而,根据在第一非专利文献中描述的方法,学习词典以使整个数据的平均重构误差最小化。因此,当数据的一部分难以被重构时,在数据的该部分中,重构误差变得较高,并且出现词典缺乏表现能力的问题。具体地,当数据集包括具有高出现频率的数据(在下文中,被称为多数数据)和具有低出现频率的数据(在下文中,被称为少数数据)二者时,出现这样的问题:少数数据对平均重构误差贡献较小,并且难以被表现。
该问题与词典的大小有关,并且特别地,在词典中的基准数据的数量小时可能发生该问题。可以仅增加基准数据的数量,然而,存在这样的问题:对于存在于属于特定类别的数据中的异常值可能会过度采用基准数据,并且可能表现非特定类别的数据。图18例示词典的大小与表现能力之间的关系。在图18中,数据空间大致分类为:类型1,对象类别多数数据;类型2,对象类别少数数据;以及类型3,非对象类别数据。当基准数据的数量小时,仅表现类型1的数据,而类型2和类型3的数据不被表现并且难以被区分。另一方面,当基准数据的数量大时,这三种类型的数据都被表现。因此,期望词典具有适当的大小。
关于上述问题,日本特开2010-198476号公报描述了如下技术:降低多数数据的密度,并且然后与少数数据一起生成词典。因此,减少了学习的基准数据相比于少数数据的中心更偏向多数数据的中心的问题,并且能够提高表现少数数据的能力。
然而,根据日本特开2010-198476号公报中描述的技术,用于指定多数数据的方法是启发式的,并且由于多数数据的密度减小,因此可能降低表现多数数据的能力。如上所述,词典学习存在难以适当地表现少数数据的问题。
发明内容
考虑到上述问题,本发明的实施例旨在具有少数数据的高表现能力、同时防止多数数据的表现能力的降低的适当词典的学习。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于佳能株式会社,未经佳能株式会社许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810051692.0/2.html,转载请声明来源钻瓜专利网。