[发明专利]基于WordNet语义相似度的多特征图像标签排序方法有效
| 申请号: | 201410049041.X | 申请日: | 2014-02-12 |
| 公开(公告)号: | CN103810274B | 公开(公告)日: | 2017-03-29 |
| 发明(设计)人: | 刘宏哲;袁家政;吴焰樟;王棚飞 | 申请(专利权)人: | 北京联合大学 |
| 主分类号: | G06F17/30 | 分类号: | G06F17/30;G06K9/62 |
| 代理公司: | 北京思海天达知识产权代理有限公司11203 | 代理人: | 吴荫芳 |
| 地址: | 100101 *** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 wordnet 语义 相似 特征 图像 标签 排序 方法 | ||
1.基于WordNet语义相似度的多特征图像标签排序方法,其特征在于包括以下步骤:
步骤1,建立训练样本库;
利用现有的数据库NS-WIDE中的图像建立一个专门应用于SVM线性分类器训练的样本图像库,包括场景类图像和对象类图像;
步骤2,提取样本库中图像的显著性区域图;
步骤2.1,获取初级视觉特征;
利用现有的Itti模型原理方法,通过计算中央周边差分采样,分别得到亮度、颜色和方向特征图N(I)、N(C)和N(O),并将三种特征图组合成显著性区域图S;
S=α*N(I)+β*N(C)+γ*N(O)
其中,N(·)为归一化函数,α、β和γ分别代表亮度、颜色和方向特征图的权值系数;
步骤2.2,基于人脑过滤冗余信息机制过滤冗余噪声信息;
步骤2.3,通过禁止返回的检测机制、就近转移的原则和注意尺寸的确定实现焦点的注意和转移;
步骤3,训练SVM分类器;
步骤3.1,获取显著性区域图的灰度直方图特征;
分别提取对象类和场景类图像的显著性区域直方图特征Object_Bw_SaliencyMap{O1,O2,O3,…,Om}和Sense_Bw_SaliencyMap{S1,S2,S3,…,Sn};对象类、场景类图像灰度直方图特征向量分别为:
OBw_f={OBw_f1,OBw_f2,OBw_f3,...,OBw_fi,...,OBw_fm}
SBw_f={SBw_f1,SBw_f2,SBw_f3,...,SBw_fi,...,SBw_fn}
其中,OBw_fi与SBw_fi分别为某幅对象类和场景类图像的灰度直方图特征向量;
步骤3.2,训练SVM分类器;
将对象类与场景类图像作为SVM线性分类器的正负样本,其对应的灰度直方图特征向量OBw_f、SBw_f作为SVM分类器的输入特征向量,通过SVM线性分类器训练得到一个线性分类器,其表达式为:
其中,Bw_f=OBw_f或SBw_f;Weight={Weight1,Weight2,...,Weightn}为分类器的权重,n为灰度直方图的特征维数,bias为偏置;
步骤4,测试图像标签预处理;
在对测试图像标签排序之前,对测试图像原有标签的不准确性、不全面性进行预处理;
步骤5,判断测试图像的类型;
利用所述步骤2的方法提取测试图像的显著性区域图,并提取显著性区域图的灰度直方图特征;将此特征向量输入SVM分类器,求出f的值,并根据f的值判断测试图像是场景类图像还是对象类图像;图像类型的判别公式如下:
其中,α1和β1、α2和β2表示对象类、场景类图像经过SVM分类器分类取值范围上、下限,α2<β2≤α1<β1;Type表示图像类型,Type=1表示测试图像为对象类图像,Type=0为场景类图像;
步骤6,测试图像标签排序;
根据图像的类型选择不同的标签投票方法,对于场景类图像采用不同维数全局特征进行标签投票,对象类图像采用测试图像的显著图不同维数特征进行标签投票;然后对投票结果处理并进行排序。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京联合大学,未经北京联合大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201410049041.X/1.html,转载请声明来源钻瓜专利网。





