[发明专利]基于内容感知深度学习网络的遥感图像超分辨率重建方法有效

专利信息
申请号: 201710301990.6 申请日: 2017-05-02
公开(公告)号: CN107194872B 公开(公告)日: 2019-08-20
发明(设计)人: 王中元;韩镇;杜博;邵振峰 申请(专利权)人: 武汉大学
主分类号: G06T3/40 分类号: G06T3/40
代理公司: 武汉科皓知识产权代理事务所(特殊普通合伙) 42222 代理人: 魏波
地址: 430072*** 国省代码: 湖北;42
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明公开了一种基于内容感知深度学习网络的遥感图像超分辨率重建方法,本发明提出了图像内容复杂性的综合度量指标及计算方法,以此为基础,将样本图像按内容复杂性分类,构建和训练高、中、低三种复杂性不等的深层GAN网络模型,然后根据待超分的输入图像的内容复杂性,选取对应的网络进行重建。为了提高GAN网络的学习性能,本发明同时给出了一种优化的损失函数定义。本发明方法克服了基于机器学习的超分辨率重建中普遍存在的过拟合和欠拟合的矛盾,有效提升了遥感影像的超分辨率重建精度。
搜索关键词: 基于 内容 感知 深度 学习 网络 遥感 图像 分辨率 重建 方法
【主权项】:
1.一种基于内容感知深度学习网络的遥感图像超分辨率重建方法,其特征在于,包括以下步骤:步骤1:收集高低分辨率遥感图像样本,并进行分块处理;步骤2:计算每个图像块的复杂度,按复杂度分成高、中、低三类,分别构成高、中、低复杂度的训练样本集;其中所述图像块的复杂度,其计算方法为:C=wh×H+wu×U+we×R;其中,C表示图像块的复杂度,H表示图像信息熵,U表示图像灰度一致性,R表示图像边缘比率,wh,wu,we分别是各自的权重,权重由实验确定;步骤3:利用获得的样本集分别训练高、中、低复杂度的三种GAN网络;其中GAN网络训练的损失函数定义为:其中,C表示网络训练的损失函数,表示内容损失函数,表示生成‑对抗损失函数,表示全变差损失函数;wv,wg,wt分别是各自的权重,权重由实验确定;步骤4:计算输入图像的复杂度,根据复杂度选取对应的GAN网络重建;步骤4的具体实现包括以下子步骤:步骤4.1:将输入图像均匀划分,计算每个子图的复杂度,并判断属于高、中、低复杂度的类型;步骤4.2:根据复杂度类型选取相应的GAN网络进行超分辨率重建。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉大学,未经武汉大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201710301990.6/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top