[发明专利]基于风格迁移的侧扫声呐仿真图像生成方法、装置及设备有效
| 申请号: | 202110778791.0 | 申请日: | 2021-07-09 |
| 公开(公告)号: | CN113436125B | 公开(公告)日: | 2022-11-04 |
| 发明(设计)人: | 葛强;阮风雪;党兰学;左宪禹;乔保军;刘扬;张磊 | 申请(专利权)人: | 河南大学 |
| 主分类号: | G06T5/50 | 分类号: | G06T5/50;G06T5/00;G06T5/30;G06T7/12;G06T7/136;G06T7/155;G06T7/194;G06V10/762;G06V10/764;G06V10/82 |
| 代理公司: | 郑州芝麻知识产权代理事务所(普通合伙) 41173 | 代理人: | 张海青 |
| 地址: | 475001 河*** | 国省代码: | 河南;41 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 风格 迁移 声呐 仿真 图像 生成 方法 装置 设备 | ||
本发明涉及图像处理技术领域,具体涉及基于风格迁移的侧扫声呐仿真图像生成方法、装置及设备。该方法包括:根据待迁移图像的目标物体类别,构建与目标物体相关的光学图像数据集;对光学图像进行图像分割,提取目标物体的轮廓,对目标物体的轮廓添加阴影,获取输入图像;构建风格迁移网络,以真实的侧扫声呐图像作为风格图像,对输入图像进行风格迁移,生成侧扫声呐仿真图像,以扩充神经网络的训练样本图像。本发明实施例能够扩充侧扫声呐图像样本,使侧扫声呐领域能够运用神经网络进行图像自动分类,同时能够提高分类的精度。
技术领域
本发明涉及图像处理技术领域,具体涉及基于风格迁移的侧扫声呐仿真图像生成方法、装置及设备。
背景技术
侧扫声呐作为一种高分辨率、多用途的海洋探测设备,广泛应用于海洋、湖泊等水域,是当今水下目标探测的主要方式,尤其是对失事飞机和沉船的探测和搜救更具有重要意义。长时间进行搜救任务,声呐搜救员时刻紧盯屏幕看是否有目标物体,工作一段时间后人员疲惫,容易错过搜救目标,而且效率低下。为减少工作人员的工作量和因视觉疲惫带来的主观性的误差,提高工作效率,侧扫声呐海底图像自动分类具有实用意义。
发明人在实践中,发现上述现有技术存在以下缺陷:
近年来,需要大量的数据样本的卷积神经网络在各个领域得到广泛的应用。侧扫声呐图像获取难度大,花费成本高,使得卷积神经网络在侧扫声呐领域应用价值不高。
发明内容
为了解决上述技术问题,本发明的目的在于提供一种基于风格迁移的侧扫声呐仿真图像生成方法、装置及设备,所采用的技术方案具体如下:
第一方面,本发明一个实施例提供了一种基于风格迁移的侧扫声呐仿真图像生成方法,该方法包括以下步骤:
根据待迁移图像的目标物体类别,构建与所述目标物体相关的光学图像数据集;
对所述光学图像进行图像分割,提取所述目标物体的轮廓,对所述目标物体的轮廓添加阴影,获取输入图像;
构建风格迁移网络,以真实的侧扫声呐图像作为风格图像,对所述输入图像进行风格迁移,生成侧扫声呐仿真图像,以扩充神经网络的训练样本图像。
优选的,所述图像分割的方法为:
通过均值聚类将所述光学图像聚为两类,并根据所属类别对图像添加灰度值,实现图像分割。
优选的,所述对所述目标物体物轮廓添加阴影的方法为:
更改所述目标物体的轮廓颜色,获取更改图像,对所述更改图像利用掩膜进行处理,将所述掩膜与目标物体轮廓进行图像融合,生成含有阴影区域的所述输入图像。
优选的,所述掩膜的获取方法为:
对所述更改图像通过设置自适应的灰度值阈值进行分割,获取所述掩膜。
优选的,所述风格迁移网络使用混合空洞卷积提取风格特征图。
优选的,所述灰度值阈值的获取方法为:
通过图像的灰度值和方差利用最大类间方差法自动获取所述灰度值阈值。
第二方面,本发明另一个实施例提供了一种基于风格迁移的侧扫声呐仿真图像生成装置,该装置包括以下模块:
光学图像数据集构建模块,用于根据待迁移图像的目标物体类别,构建与所述目标物体相关的光学图像数据集;
输入图像获取模块,用于对所述光学图像进行图像分割,提取所述目标物体的轮廓,对所述目标物体的轮廓添加阴影,获取输入图像;
侧扫声呐仿真图像生成模块,用于构建风格迁移网络,以真实的侧扫声呐图像作为风格图像,对所述输入图像进行风格迁移,生成侧扫声呐仿真图像,以扩充神经网络的训练样本图像。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于河南大学,未经河南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110778791.0/2.html,转载请声明来源钻瓜专利网。





