[发明专利]一种基于对抗式迁移学习的细粒度目标判别方法有效
| 申请号: | 201810665319.4 | 申请日: | 2018-06-25 |
| 公开(公告)号: | CN108830334B | 公开(公告)日: | 2020-08-28 |
| 发明(设计)人: | 江爱文;万剑怡;王明文 | 申请(专利权)人: | 江西师范大学 |
| 主分类号: | G06K9/62 | 分类号: | G06K9/62 |
| 代理公司: | 北京智信四方知识产权代理有限公司 11519 | 代理人: | 刘真 |
| 地址: | 330022 *** | 国省代码: | 江西;36 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | 本发明公开了一种基于对抗式迁移学习的细粒度目标判别方法,所述方法包括:获取预训练细粒度目标识别模型,输入训练图像得到视觉属性特征;将训练图像输入预设卷积神经网络得到图像特征,获取视觉解释生成网络模型,输入图像特征得到训练图像的视觉解释信息;获取句子特征抽取网络模型,提取得到视觉解释信息的整体属性特征;利用视觉属性特征和视觉解释信息整体属性特征对视觉解释生成网络模型进行优化;将测试图像输入优化视觉解释生成网络模型,得到分类结果和视觉解释信息。本发明有机地结合了视觉目标细粒度分类识别和视觉解释生成过程,避免了解释模型对语义标签的依赖。 | ||
| 搜索关键词: | 一种 基于 对抗 迁移 学习 细粒度 目标 判别 方法 | ||
【主权项】:
1.一种基于对抗式迁移学习的细粒度目标判别方法,其特征在于,所述方法包括:步骤S1,获取预训练细粒度目标识别模型,将训练图像输入至所述预训练细粒度目标识别模型,得到所述训练图像的视觉属性特征xI;步骤S2,将所述训练图像输入预设卷积神经网络得到所述训练图像的图像特征fCNN,获取视觉解释生成网络模型,并将所述训练图像的图像特征fCNN输入至所述视觉解释生成网络模型,得到所述训练图像的视觉解释信息;步骤S3,获取句子特征抽取网络模型,并利用所述句子特征抽取网络模型提取得到所述视觉解释信息的整体属性特征xS;步骤S4,利用所述视觉属性特征xI和视觉解释信息整体属性特征xS对于所述视觉解释生成网络模型进行优化,得到优化视觉解释生成网络模型;步骤S5,将测试图像输入至所述优化视觉解释生成网络模型中,得到测试图像分类结果和相应的视觉解释信息。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于江西师范大学,未经江西师范大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201810665319.4/,转载请声明来源钻瓜专利网。





