[发明专利]一种基于注意力机制的图像描述生成方法在审
申请号: | 201910828522.3 | 申请日: | 2019-09-03 |
公开(公告)号: | CN110674850A | 公开(公告)日: | 2020-01-10 |
发明(设计)人: | 肖春霞;赵坤 | 申请(专利权)人: | 武汉大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04 |
代理公司: | 42222 武汉科皓知识产权代理事务所(特殊普通合伙) | 代理人: | 王琪 |
地址: | 430072 湖*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 图像描述 注意力机制 强化学习 细粒度 对象间关系 对象特征 关系特征 曝光偏差 生成模型 图像信息 显著对象 信息使用 优化训练 语言模型 图像 融合 缓解 语言 优化 | ||
1.一种基于注意力机制的图像描述生成方法,其特征在于,包括以下步骤:
步骤1,从数据集的标注语句中提取词语构建词汇表;
步骤2,采用ResNet101模型作为CNN初始模型,并进行ResNet101的参数预训练,使用预训练的ResNet101单独提取图像的全局特征,然后使用预训练的ResNet101替换Faster R-CNN算法中的CNN提取每张图片的若干个对象区域特征,然后将对象区域两两组成关系区域提取关系特征;
步骤3,将关系特征和对象区域特征进行特征融合,得到包含对象间关系的对象区域特征;
步骤4,将上一步得到的包含对象间关系的对象区域特征输入双层LSTM语言模型中得到输出结果,即对图像生成的自然语言描述;
步骤5,训练一个映射空间模型衡量的图像与描述句子之间的相似度,使用CIDEr分数和相似度作为奖励项,使用强化学习进一步优化双层LSTM语言模型。
2.根据权利要求1所述的一种基于注意力机制的图像描述生成方法,其特征在于:步骤1中构建词汇表的方式为,统计MS COCO数据集文字描述中每个单词出现的次数,只选取出现次数大于五次的单词列入词汇表中,其中MS COCO数据集词汇表包含9487个单词。
3.根据权利要求1所述的一种基于注意力机制的图像描述生成方法,其特征在于:步骤2中使用Faster R-CNN算法提取图像的对象区域特征,训练时对于一个图像的损失函数定义如下:
其中,参数λ用来平衡Ncls和Nreg这两个标准化参数;将Ncls的大小设置为mini-batch的大小,将Nreg设置为anchor的总量;i表示训练时一个mini-batch中anchor的索引号,pi是索引号为i的anchor为对象区域的预测概率;如果anchor为正样本,则pi*等于1,若anchor为负样本,则pi*等于0;ti是表示生成的包围框的4个坐标参数的向量,ti*是与正样本的anchor相应的ground truth的包围框的坐标向量;
Lcls是对象的分类损失函数:
Lcls(pi,pi*)=-log[pi*pi+(1-pi*)(1-pi)]
Lreg表示边界框回归损失函数:
Lreg(ti,ti*)=R(ti-ti*)
其中R为smooth L1损失函数:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉大学,未经武汉大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910828522.3/1.html,转载请声明来源钻瓜专利网。
- 上一篇:基于多源域集成迁移的跨领域情感分类方法
- 下一篇:一种基于链接距离的聚类方法