[发明专利]视觉感知饱和策略的超像素参数自适应选择方法有效
申请号: | 201810346540.3 | 申请日: | 2018-04-18 |
公开(公告)号: | CN108596832B | 公开(公告)日: | 2022-07-05 |
发明(设计)人: | 郭娅茜;叶家建;徐靓云;张纠;潘晨 | 申请(专利权)人: | 中国计量大学 |
主分类号: | G06T3/40 | 分类号: | G06T3/40;G06V10/762;G06K9/62 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 310018 浙江省杭*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 视觉 感知 饱和 策略 像素 参数 自适应 选择 方法 | ||
本发明公开了一种视觉感知饱和策略的超像素参数自适应选择方法,包括以下步骤:1)利用SLIC(简单线性迭代聚类)算法,采用不同超像素参数Ki,由原图像构造出多个超像素图SPi;2)将超像素表示为单个像素,则每个超像素图可表示为原图的一个缩小图像Ii;3)分别对Ii用显著点预测算法计算显著图Si,其中显著度值大于平均值的像素点作为注视点;4)用注视点做Kmeans聚类,生成多个聚类Class_j;5)每类注视点形成各自注视区域及质心,则该类注视点到质心的类内距离可作为微跳视幅度参数看待。6)对整个图像中各类的类内距离做归一化并累计,作为该尺度图像的微跳视幅度AOMi;7)比较AOMi,其最小值对应的超像素参数Ki就是最佳参数。
技术领域
本发明涉及计算机视觉技术领域,具体地讲是一种视觉感知饱和策略的超像素参数自适应选择方法。
背景技术
随着微电子、互联网等技术快速发展,光学摄像头已成为一种标准信息感知单元;同时,摄像头的图像分辨率在不断提高,4K以上超高清设备越来越常见。图像分辨率的提高,使得像素数量几何倍数增加。面对海量视频图像数据,传统基于像素的图像处理算法面临严重的挑战。一方面人们致力于不断提高计算机系统硬件速度来减缓这种压力;另一方面,对传统图像处理算法做合理改进,使之更适应处理海量像素数据,是一种有效的解决问题思路。
人眼观察图像不是针对每个像素,而是某些具有同质属性的像素连通区域,称为超像素或者基元。颜色、纹理、边缘等特征都能用来描述这样的区域。图像的超像素化可以大大减少数据规模,降低干扰因素,有助于保持目标边缘,有利于提高算法性能。但是对不同类型的自然图像,如何进行合理的超像素预处理并没有可以遵循的一般准则。几乎所有文献都不涉及或者缺乏对这种预处理方式的相关实验和理论分析。超像素参数通常由人经验性地累试选择。然而实际不同类型图像可能对应各自不同的较佳超像素参数,且实验表明超像素参数选择与图像处理效果有直接关系。由于直接与图像尺度相关,超像素参数选择实际是一种图像尺度选择问题。目前图像处理算法中的尺度选择基本依赖于主观经验,缺乏兼容性,难以实现自适应地选择超像素参数。而现有技术为了克服超像素参数的敏感性,除了采用经验参数外,通常还采用多尺度图像同时并行处理方式,即同时生成多个不同参数超像素图,通过各个尺度图像处理结果做后处理(集成),来获得最终图像处理结果。
发明内容
本发明要解决的技术问题是,提出一种将微跳视幅度作为一种感知指标,用于自动选择合理的图像尺度,利用人类视觉机制自动选择合适图像尺度,从而降低数据量、提高算法性能的视觉感知饱和策略的超像素参数自适应选择方法。
有鉴于此,本发明的解决解决方案是,提供一种利用视觉感知饱和策略的超像素参数选择方法,包括以下各步骤:
1)利用SLIC(Simple Linear Iterative Cluster)算法,采用不同超像素参数Ki,由原图像I构造出多个超像素图SPi;
2)将所述多个超像素图SPi中的超像素表示为单个像素,则每个超像素图可表示为原图I的一个缩小图像Ii;
3)分别对缩小图像Ii用显著点预测算法计算得到显著图Si,将显著图Si中像素按显著度排序,选取大于均值的点作为注视点,形成注视点集合Fix_set;
4)利用注视点集合Fix_set做Kmeans聚类,生成多个聚类Class_j;
5)每个聚类注视点形成自身注视区域和类中心,则该聚类注视点到类中心的类内距离作为微跳视幅度参数。
作为改进,在步骤5)之后,对基于整个原图像I所得到的各聚类的类内距离做累计和归一化处理,作为该原图像I的微跳视幅度AOMi;比较AOMi,其最小值对应的超像素参数Ki就是最佳图像尺度。
作为改进,通过相位谱法对目标图像作注视点预测,可采用以下步骤:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国计量大学,未经中国计量大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810346540.3/2.html,转载请声明来源钻瓜专利网。