[发明专利]一种基于多模态融合的视觉问答融合增强方法有效
| 申请号: | 201910520138.7 | 申请日: | 2019-06-17 |
| 公开(公告)号: | CN110377710B | 公开(公告)日: | 2022-04-01 |
| 发明(设计)人: | 颜成钢;俞灵慧;孙垚棋;张继勇;张勇东 | 申请(专利权)人: | 杭州电子科技大学 |
| 主分类号: | G06F16/332 | 分类号: | G06F16/332;G06K9/62 |
| 代理公司: | 杭州君度专利代理事务所(特殊普通合伙) 33240 | 代理人: | 朱月芬 |
| 地址: | 310018 浙*** | 国省代码: | 浙江;33 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | 本发明公开了一种基于多模态融合的视觉问答融合增强方法。本发明步骤如下:1、利用GRU结构构建时序模型,获得问题的特征表示学习、利用从Faster R‑CNN抽取的基于自底向上的注意力模型的输出作为图像的特征表示;2、基于注意力模型Transformer进行多模态推理,引入注意力模型对图片‑问题‑答案这个三元组进行多模态融合,建立推理关系;3、针对不同的隐含关系有不同的推理过程和结果输出,再根据这些结果输出来进行标签分布回归学习,来确定答案。本发明基于特定的图片和问题得到答案直接应用于服务于盲人的应用中,能够帮助盲人或者视觉障碍者更好地感知周围环境,也应用于图片检索系统,提高图片检索的准确性和多样性。 | ||
| 搜索关键词: | 一种 基于 多模态 融合 视觉 问答 增强 方法 | ||
【主权项】:
1.一种基于多模态融合的视觉问答融合增强方法,其特征在于包括以下步骤:步骤1、利用GRU结构构建时序模型,获得问题的特征表示学习、利用从Faster R‑CNN抽取的基于自底向上的注意力模型的输出作为图像的特征表示,具体将句子中的每个单词都按照顺序时刻依次输入到GRU模型中,句子的最后一个单词的GRU输出表示整个句子;步骤2、基于注意力模型Transformer进行多模态推理,同时引入注意力模型对图片‑问题‑答案这个三元组进行多模态融合,从而建立推理关系;步骤3、由于多种不同的图像‑问句‑答案隐含关系被涵盖,且针对不同的隐含关系有不同的推理过程和结果输出,利用标签分布学习和KL散度损失函数和softmax回归方法来拟合真实答案分布情况。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州电子科技大学,未经杭州电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910520138.7/,转载请声明来源钻瓜专利网。





