[发明专利]一种基于注意力机制的图像描述生成方法在审
申请号: | 201910828522.3 | 申请日: | 2019-09-03 |
公开(公告)号: | CN110674850A | 公开(公告)日: | 2020-01-10 |
发明(设计)人: | 肖春霞;赵坤 | 申请(专利权)人: | 武汉大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04 |
代理公司: | 42222 武汉科皓知识产权代理事务所(特殊普通合伙) | 代理人: | 王琪 |
地址: | 430072 湖*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明提供一种基于注意力机制的图像描述生成方法,首先利用图像中的显著对象信息以及对象间关系的信息使用注意力机制生成更准确的图像描述,然后使用双层语言生成模型生成更细粒度的图像描述,最后使用强化学习优化整个模型。本发明有如下优点:关系特征与对象特征的融合能够丰富图像信息;双层语言模型能够生成更细粒度的图像描述;使用强化学习进一步优化训练模型能够缓解曝光偏差问题。 | ||
搜索关键词: | 图像描述 注意力机制 强化学习 细粒度 对象间关系 对象特征 关系特征 曝光偏差 生成模型 图像信息 显著对象 信息使用 优化训练 语言模型 图像 融合 缓解 语言 优化 | ||
【主权项】:
1.一种基于注意力机制的图像描述生成方法,其特征在于,包括以下步骤:/n步骤1,从数据集的标注语句中提取词语构建词汇表;/n步骤2,采用ResNet101模型作为CNN初始模型,并进行ResNet101的参数预训练,使用预训练的ResNet101单独提取图像的全局特征,然后使用预训练的ResNet101替换Faster R-CNN算法中的CNN提取每张图片的若干个对象区域特征,然后将对象区域两两组成关系区域提取关系特征;/n步骤3,将关系特征和对象区域特征进行特征融合,得到包含对象间关系的对象区域特征;/n步骤4,将上一步得到的包含对象间关系的对象区域特征输入双层LSTM语言模型中得到输出结果,即对图像生成的自然语言描述;/n步骤5,训练一个映射空间模型衡量的图像与描述句子之间的相似度,使用CIDEr分数和相似度作为奖励项,使用强化学习进一步优化双层LSTM语言模型。/n
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉大学,未经武汉大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910828522.3/,转载请声明来源钻瓜专利网。
- 上一篇:基于多源域集成迁移的跨领域情感分类方法
- 下一篇:一种基于链接距离的聚类方法