[发明专利]顾及极化统计特性的非监督域自适应网络极化SAR地物分类方法及设备有效
申请号: | 202110348030.1 | 申请日: | 2021-03-31 |
公开(公告)号: | CN113269024B | 公开(公告)日: | 2022-04-26 |
发明(设计)人: | 汪长城;李倩;沈鹏;高晗 | 申请(专利权)人: | 中南大学 |
主分类号: | G06V20/00 | 分类号: | G06V20/00;G06V10/762;G06V10/82;G06K9/62;G06N3/04 |
代理公司: | 长沙市融智专利事务所(普通合伙) 43114 | 代理人: | 熊开兰 |
地址: | 410083 湖南*** | 国省代码: | 湖南;43 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 顾及 极化 统计 特性 监督 自适应 网络 sar 地物 分类 方法 设备 | ||
1.一种顾及极化统计特性的非监督域自适应网络极化SAR地物分类方法,其特征在于,包括:
步骤1,选取带有样本标签的极化SAR数据计算生成协方差矩阵C3,作为源域数据集标签为c的第i个样本且源域数据集的样本标签包括Num类,c=1,2,…,Num;将没有样本标签的极化SAR数据计算生成协方差矩阵C3,作为目标域数据集中的第j个样本
步骤2,计算源域数据集各类标签c的聚类中心作为源域数据集初始的聚类中心使用源域数据集的聚类中心初始化目标域数据集的聚类中心为
步骤3,使用源域数据集和目标域数据集分别输入至各自对应的复卷积神经网络;源域对应的复卷积神经网络输出端设置的softmax分类器,输出源域数据集的样本分类结果;目标域对应的复卷积神经网络,输出与目标域数据集中的样本对应的重构特征,所有样本的重构特征构成重构特征集;
步骤4,对目标域数据集中每个样本:均计算其对应重构特征与每个聚类中心之间的Wishart距离,通过选取其中最小距离对应的聚类中心,确定该样本的类别;记确定类别c的重构特征为
步骤5,针对目标域数据集中每种类别,均根据目标域数据集中该种类别所有样本对应的重构特征,计算并更新目标域数据集该种类别的聚类中心;
步骤6,重复步骤4、5进行聚类迭代,直到聚类迭代收敛或达到聚类最大迭代次数;
步骤7,通过最小化目标函数,更新源域复卷积神经网络和目标域复卷积神经网络的参数;
步骤8,返回执行步骤3,直到源域和目标域对应的复卷积神经网络的参数收敛,此时目标域数据集各样本的类别即为最终地物分类类别。
2.根据权利要求1所述的方法,其特征在于,步骤7所述的目标函数为:
f=losscross entropy+βDCWD
式中,losscross entropy为源域分类的交叉熵损失,DCWD为源域、目标域的所有类别的数据分布之间的对比性Wishart差异,β为正则项系数,且有:
其中,μcc(y,y′)为判别函数,CDcc表示源域与目标域的相同类别内数据点之间的距离,CDcc′表示源域与目标域的不同类别c与c′样本间的距离,且有:
CDcc=WD,
其中,WD是指Wishart距离,
表示参数为θ的源域复卷积神经网络根据输入样本预测输出标签为的概率,概率值由softmax分类器得到;
表示源域数据样本的真实标签,表示目标域数据样本聚类所得标签;
ns表示源域数据集中的样本数量,nt表示目标域数据集中的样本数量;
表示源域与目标域的相同类别数据点之间的对比性Wishart差异,表示源域与目标域的不同类别数据点之间的对比性Wishart差异;
e1表示的是对于所有类别的以下距离之和:目标域与源域相同类别样本在重构特征空间上的距离;e2表示的是对于所有类别的以下距离之和:目标域与源域不同类别样本在重构特征空间上的距离;
表示源域复卷积神经网络根据样本输出的重构矩阵,表示对求逆运算;表示目标域复卷积神经网络根据样本输出的重构矩阵,表示对求逆运算;
表示nt个目标域样本对应的聚类标签Z表示的是源域与目标域样本的重构矩阵的统称。
3.根据权利要求1所述的方法,其特征在于,在步骤7最小化目标函数前,先对目标域数据集中参与的各类型样本子集以及样本进行预处理,包括:
(1)确定参与目标函数计算的样本:对于各类型样本子集中的每个样本,若样本距自身类别聚类中心的wishart距离超过给定阈值tv∈[0,1],则该样本不参与本次网络参数更新过程的目标函数计算;
(2)确定参与目标函数计算的样本类型:基于确定的参与目标函数计算样本,统计目标域数据集中每种类型包括的样本数,若某种样本类型包括的样本数低于给定阈值δ,则该样本类型不参与本次网络参数更新过程的目标函数计算。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中南大学,未经中南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110348030.1/1.html,转载请声明来源钻瓜专利网。