[发明专利]一种基于因果解耦生成模型的域泛化图像识别方法在审
| 申请号: | 202210512236.8 | 申请日: | 2022-05-11 | 
| 公开(公告)号: | CN114863213A | 公开(公告)日: | 2022-08-05 | 
| 发明(设计)人: | 孔万增;李倪;金宣妤;杨冰;张建海;崔岂铨 | 申请(专利权)人: | 杭州电子科技大学 | 
| 主分类号: | G06V10/774 | 分类号: | G06V10/774;G06V10/82;G06V10/764;G06K9/62;G06F17/18;G06N3/04;G06N3/08 | 
| 代理公司: | 杭州君度专利代理事务所(特殊普通合伙) 33240 | 代理人: | 陈炜 | 
| 地址: | 310018 浙*** | 国省代码: | 浙江;33 | 
| 权利要求书: | 查看更多 | 说明书: | 查看更多 | 
| 摘要: | |||
| 搜索关键词: | 一种 基于 因果 生成 模型 泛化 图像 识别 方法 | ||
本发明公开一种基于因果解耦生成模型的域泛化图像识别方法。域泛化的目的是从多个源域数据中学习域不变表示很好的泛化到不可见的目标域,但是学习域不变特征的最大挑战在于从纠缠的特征空间中分解出语义信息和域信息。考虑到因果特征具有跨域不变的特性,本发明提出了因果解耦表征模型。首先,将跨域稳定的因果结构模型作为先验引入。然后,构建基于因果结构的生成模型,分别为任务相关和域相关特征建模。特别的是,两个隐特征之间的双向因果依赖通过一种干预手段解除,从而有效消除域相关特征对预测任务的影响。结果证明,本发明提出的方法能够有效解耦出任务相关和域相关特征,超过了大多数的解决域泛化的方法。
技术领域
本发明属于因果表征学习与解耦方法融合处理域泛化技术领域,具体涉及一种基于因果解耦生成模型的域泛化图像识别方法。
背景技术
深度神经网络的发展使得计算机视觉取得了很大的成功,特别是当训练数据和测试数据服从相同分布时。但是学习如何将深度神经网络泛化到训练分布之外的数据,仍然是机器学习的一个基本但是具有挑战性的问题。域泛化的目标是在多个源域上训练模型能很好地泛化到不可见的目标域。学习一个域不变表示被提出作为一个解决域泛化问题的关键技术。但是上述的方法存在一个缺陷,即当源域变得更加多样化时,学习一个域不变模型就变得困难。这是因为在每个域中包含许多特定于域的信息。解耦表征学习的方法可以从混淆的特征中分解出语义特征和域相关特征,并对域相关信息建模,从而更好地提取出域不变特征。但是很多生成模型方法直接强制生成的潜变量之间是独立的,没有考虑到他们之间的相关性,然而,这种相关性是随着分布偏移发生变化的。以奶牛和骆驼为例,动物类型和环境有很强的相关性。比如,一只骆驼站在沙漠中,假设有一个神经网络能对沙漠中的骆驼获得很高的准确率(可能专注于沙漠这个特征),但是这个模型可能无法识别站在绿色草地上的骆驼或站在沙漠中的牛。如果模型可以认识到虽然景观随着气候变化而变化,但是动物的生物特征(如驼峰、颈部长度)保持不变,并使用这些特征来识别物种,那么我们就有更好的机会泛化到不可见的目标域。因果机制不同于特征分布,它是跨域稳定的。所以本发明将因果模型纳入生成解耦方法之中,从扭曲的纠缠信息中解耦出稳定的因果方向。
发明内容
本发明的一个目的是针对现有技术的不足,提出一种基于因果解耦生成模型的域泛化识别方法来消除域相关特征的影响,从而提取语义特征用来泛化。首先,我们从因果关系角度分析域泛化的问题,构建一个因果结构图,指出域相关信息与语义信息具有虚假的相关性,它对分类任务产生影响。然后,从干预角度分析出需要求解的目标函数。最后,提出一个因果解耦生成模型,从多个源域数据中识别出语义信息和域相关的因素,通过采用一种空间干预手段,去除两者之间的相关性,解耦出独立表征。
一种基于因果解耦生成模型的域泛化图像识别方法,具体步骤如下:
步骤一、模型训练
构建模型的损失函数如下:
其中,为似然函数损失;为域判别损失;为梯度正交损失;λ是一个独立的权重参数。
似然函数损失的表达式如下:
其中,是需要寻求最大化的对数似然比的权重,E表示期望的形式。x表示高维图像数据,y表示输出变量,c为语义特征,s是域相关特征。φc是语义特征空间参数,φs是域相关特征空间参数。p(x,y)为有监督目标下的高维图像x和对应标签y的联合概率分布。p(c,s)为先验模型;M表示为训练域的数目。和分别表示从图像中在语义特征空间φc编码出来的语义特征分布和在域相关特征空间φs编码出来的域相关特征分布,其表达式为:
其中,表示多元高斯分布。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州电子科技大学,未经杭州电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210512236.8/2.html,转载请声明来源钻瓜专利网。





