[发明专利]基于数据库邻域关系的图像特征增强方法有效
申请号: | 201610075002.6 | 申请日: | 2016-02-01 |
公开(公告)号: | CN105760442B | 公开(公告)日: | 2019-04-26 |
发明(设计)人: | 周文罡;孙韶言;李厚强;田奇 | 申请(专利权)人: | 中国科学技术大学 |
主分类号: | G06F16/583 | 分类号: | G06F16/583;G06N3/02;G06K9/62 |
代理公司: | 北京凯特来知识产权代理有限公司 11260 | 代理人: | 郑立明;郑哲 |
地址: | 230026 安*** | 国省代码: | 安徽;34 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 数据库 邻域 关系 图像 特征 增强 方法 | ||
本发明公开了一种基于数据库邻域关系的图像特征增强方法,包括:基于去除输入图像尺寸限制的改进CNN特征提取方式,并通过最大能量池化方法自适应地选择输入图像的最优尺度,从而完成数据库图像的CNN特征提取;针对数据库图像中的每一CNN特征均朝着其相关图像的CNN特征进行一定程度的移动,使得数据库中的相关图像在特征空间聚合在一定范围之内,从而实现数据库图像CNN特征的增强。本发明公开的方案可以准确、高效地实现图像之间相关性的计算以应用于图像检索系统。
技术领域
本发明涉及视觉检索技术领域,尤其涉及一种基于数据库邻域关系的图像特征增强方法。
背景技术
在图像检索领域,两个最重要的基本问题是视觉特征提取与图像相似性计算。在传统的图像检索框架中,大多数方法假定所有图像之间是相互独立的,从而直接使用图像特征之间的相似性来衡量图像之间的相似性。因此,这一框架中图像检索的性能高度依赖于良好的视觉特征设计。除了应用非常广泛的基于局部视觉特征的词袋模型外,近年来也涌现出很多使用卷积神经网络(CNN)提取全连接层输出的全局视觉特征进行图像检索的工作,并取得了良好的效果。然而,这样的全局特征对图像的几何变换的稳健性较弱。同时由于传统的模型对输入图像的大小有严格的限定,在输入阶段往往需要对图像的长宽比也进行改变,从而影响了描述图像的能力。
除了提升视觉特征表述能力之外,也有一些工作尝试通过利用数据库图像之间的相关性来提升图像检索的性能。其中包括两种主要方法,即查询扩展和距离测度修正。查询扩展的主要思想是在进行一次检索后,通过检索返回的结果对查询图像特征进行一定的修改并再次进行检索。距离测度修正方法则通过数据库图像之间的关系,在图像视觉特征的相似性基础上进行一定的修正,作为衡量图像之间相似性的测度。两种方法均在提升检索性能上取得一定的成效,然而查询扩展仅仅利用了和查询图像最相关的数据库图像之间的关系,并没有考虑到数据库图像互相之间的关系;距离测度修正则需要对每张图像额外保存修正测度所需用到的参数。因此现有的利用数据库图像相关性提升检索性能的方法仍存在较大的改进空间。
发明内容
本发明的目的是提供一种基于数据库邻域关系的图像特征增强方法,可以准确、高效地实现图像之间相关性的计算以应用于图像检索系统。
本发明的目的是通过以下技术方案实现的:
一种基于数据库邻域关系的图像特征增强方法,包括:
基于去除输入图像尺寸限制的改进CNN特征提取方式,并通过最大能量池化方法自适应地选择输入图像的最优尺度,从而完成数据库图像的CNN特征提取;
针对数据库图像中的每一CNN特征均朝着其相关图像的CNN特征进行一定程度的移动,使得数据库中的相关图像在特征空间聚合在一定范围之内,从而实现数据库图像CNN特征的增强。
进一步的,所述基于去除输入图像尺寸限制的改进CNN特征提取方式,并通过最大能量池化方法自适应地选择输入图像的最优尺度,从而完成数据库图像的CNN特征提取包括:
基于改进后的AlexNet模型提取数据库图像的CNN特征,所述改进后的AlexNet模型为:将AlexNet模型中所有的全连接层除去,将池化层的输出作为整个模型的输出,从而去除AlexNet模型对输入图像尺寸的限制;
通过最大能量池化方法自适应地选择输入图像的最优尺度:针对数据库中的每一图像均等比例缩放至NS个尺度并作为输入图像输入至改进后的AlexNet模型中,每个尺度Si上提取一个CNN特征其中,1≤i≤NS,M为所提取CNN特征的维数,最优尺度S满足如下表达式:
通过上述方式选出数据库中所有图像的最佳尺度的特征后,对每一图像最优尺度的CNN特征中每一维进行开方运算,然后进行L2归一化,从而完成数据库图像的CNN特征提取。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学技术大学,未经中国科学技术大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201610075002.6/2.html,转载请声明来源钻瓜专利网。