[发明专利]基于仿生视觉传感器时空数据流的自适应切割方法在审
申请号: | 202110973961.0 | 申请日: | 2021-08-24 |
公开(公告)号: | CN113689461A | 公开(公告)日: | 2021-11-23 |
发明(设计)人: | 吕恒毅;韩诚山;张以撒;冯阳;赵宇宸;孙铭 | 申请(专利权)人: | 中国科学院长春光学精密机械与物理研究所 |
主分类号: | G06T7/215 | 分类号: | G06T7/215;G06T5/00 |
代理公司: | 长春众邦菁华知识产权代理有限公司 22214 | 代理人: | 朱红玲 |
地址: | 130033 吉*** | 国省代码: | 吉林;22 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 仿生 视觉 传感器 时空 数据流 自适应 切割 方法 | ||
基于仿生视觉传感器时空数据流的自适应切割方法,涉及图像处理技术领域,解决现有数据切割方法存在时空数据流切割存在较大误差,对噪声鲁棒性较差;以及参与计算的置信区间未更新等问题;法在数据切割过程中即可进行降噪,减少噪声对于数据流切割的影响,提高对噪声的鲁棒性。而且计算参数不断根据场景自适应更新,以应对目标速度变化或数量变化的情况,使该方法适用于各种复杂场景。并且利用过往事件消除机制,可从时空数据流中获取一帧边缘清晰锐利的虚拟帧。最终可以对时空数据流进行自适应切割,切割出来的时空数据段里所包含的目标信息既能保留完整的目标信息,有不会存在拖影现象,提高接下来目标运动信息获取的准确性。
技术领域
本发明涉及图像处理技术领域,具体涉及一种基于仿生视觉传感器时空数据流的自适应切割方法。
背景技术
现如今主流的成像器件为CCD和CMOS图像传感器,它们以帧的成像模式输出图像,输出的图像比较直观且能较好的取悦人眼。但以帧为基础的传输方式,无法实现大数据的高速读出和实时处理。因此便应运而生了仿生事件传感器。该传感器由于其特殊的像素结构,只对光强发生变化的地方成像,并且具有大动态范围,低数据量的优势。因此现在已广泛应用于机器视觉领域,但该传感器的输出图像并不能较好的取悦人眼,而且在机器视觉领域,针对该传感器的图像处理,大多采用固定时间窗口或者固定事件数量的方法。但在复杂场景下这两种方法的切割效果并不理想且不能对时空数据流进行降噪。针对目标运动速度发生剧烈变化或目标数量显著变化的情况,若用于切割的时间窗口太长或者事件(由仿生视觉传感器像素产生,多个事件共同形成时空数据流)数量太多,则会引起拖影现象。对于移动较慢的目标,若用于切割的时间窗口太短或者事件数量太少,则会造成目标信息丢失。
针对上述问题,目前,国内外也有一些解决方案。
现有技术1,基于自适应时间曲面的异步事件目标追踪,提出了一种基于时空数据流的自适应切割方法,该方法通过选取数帧目标边缘清晰的虚拟帧,先计算虚拟帧的信息熵并根据信息熵计算出一个置信区间,然后对时空数据流进行切割,并判断切割出的时空数据流所构成虚拟帧信息熵是否在置信区间内,若在则切割完成,若不在置信区间内,则继续累积事件进行切割。但该方法的置信区间一直未更新,因此同样不适用于复杂场景。
现有技术2,基于动态视觉传感器的自适应时间池目标检测,采用神经网络的方法提出“自适应时间池化池”这一概念,就是在神经网络池化层,对目标的不同运动特征均进行池化操作,但该方法需提取获取目标的特征,并不适用于对时空数据流的简单预处理。
上述所提到的方法,虽然能一定程度解决在复杂场景下目标运动速度发生剧烈变化时,时空数据流切割不当造成的拖影或者目标信息丢失问题。但由于仿生视觉传感器的工作原理,其时空数据流中会有大量的背景噪声,所以对其虚拟帧信息熵的计算会有很大的影响,从而导致时空数据流切割存在较大误差,对噪声鲁棒性较差;其参与计算的置信区间未更新,所以不适用于场景中目标增加或减少的情况,该方法不具有通用性;对时空数据流的分割属于仿生视觉传感器数据的预处理,所以现有提前获取目标特征再将特征池化的方法,并不适用于数据预处理。
发明内容
本发明为解决现有数据切割方法存在时空数据流切割存在较大误差,对噪声鲁棒性较差;以及参与计算的置信区间未更新,因此不适用于场景中目标增加或减少的情况,通用性差等问题;提供一种基于仿生视觉传感器时空数据流的自适应切割方法。
基于仿生视觉传感器时空数据流的自适应切割方法,该方法由以下步骤实现:
步骤一、获取理想帧图像;
通过累积Tms事件,并采用对过往事件消除的方式,获取一帧理想帧图像;具体为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院长春光学精密机械与物理研究所,未经中国科学院长春光学精密机械与物理研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110973961.0/2.html,转载请声明来源钻瓜专利网。