[发明专利]一种基于图像识别与文本融合的博物馆展品智能导览方法有效
| 申请号: | 201910333050.4 | 申请日: | 2019-04-24 |
| 公开(公告)号: | CN110096986B | 公开(公告)日: | 2022-04-12 |
| 发明(设计)人: | 王斌;杨晓春;张斯婷 | 申请(专利权)人: | 东北大学 |
| 主分类号: | G06V10/764 | 分类号: | G06V10/764;G06F16/953;G06F16/33;G06Q50/10;G06N3/04 |
| 代理公司: | 沈阳东大知识产权代理有限公司 21109 | 代理人: | 李运萍 |
| 地址: | 110819 辽宁*** | 国省代码: | 辽宁;21 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 图像 识别 文本 融合 博物馆 展品 智能 方法 | ||
1.一种基于图像识别与文本融合的博物馆展品智能导览方法,其特征在于:包括如下步骤:
步骤1:收集展品图像,将所有图像调整成统一大小,并对图片进行数据增强处理,得到展品图片集合,所述展品图片集合中的图片为带有正确分类标签的图片;
步骤2:建立基于卷积神经网络结构的识别模型;将VGG网络结构模型中的特征提取层以及分类层参数作为基于卷积神经网络结构的初始识别模型中的参数;使用步骤1的展品图片集合中的图片X训练基于卷积神经网络结构的初始识别模型,得到损失函数L(X),根据损失函数训练识别初始模型中的参数,得到基于卷积神经网络结构的识别模型,得到图片X的识别结果;
步骤3:根据步骤2中得到的识别结果作为关键词进行相关资讯的爬取收集;将识别结果根据爬虫技术做关键词分割,根据分割后的关键词在百度上收集资讯,获得资讯数据集;
步骤4:获取的资讯数据集中提取摘要T;运用抽取式的方式进行摘要的生成,去除资讯数据集中冗余的信息,将其主要内容提取出来;将步骤3中资讯数据集中的句子排成句子序列A1、A2、…、An组成文档D,n为句子总数,通过根据概率选取D中的m个句子组成摘要T;
概率选取方法为:Extractive式摘要生成模型包括句子编码器、文档编码器以及句子提取器;其中,句子编码器中使用word2vec得到每个单词的200维向量并使用卷积与池化操作得到句子的编码向量;在文档编码器中使用LSTM网络,句子提取器部分将关键词作为额外信息,参与为句子评分的过程,最终目标是使含有关键词的句子获得更高的得分,即:
其中,u0、We、w′e为单隐层的神经网络的参数,r代表An被选入摘要的概率,代表μ时刻的句子An,hμ为μ时刻LSTM网络的中间状态,hμ′代表关键词的加权和,b为关键词的个数,K为每句话被选择到摘要T的概率,概率越大,句子An出现在T中的可能性越大;ci为关键字,当句子中含有的关键词越多,hμ′越大,最后该句子选入摘要中的概率也就更大;
步骤5:将步骤4中得到的摘要T进行资讯融合;
将摘要T中的句子融合成有逻辑的语段,采用段落模板结合描述逻辑的方法,通过定义描述逻辑,并匹配预先定义好的段落描述模板将摘要T中的句子融合为一个完整并且有意义的段落;所述段落模板为以时间为逻辑或地点、人物为逻辑。
2.根据权利要求1所述的一种基于图像识别与文本融合的博物馆展品智能导览方法,其特征在于:所述步骤2的具体步骤如下:
步骤2.1:使用VGG网络结构模型初始化分类子网络中的特征提取层以及分类层参数,输入训练集中的图片,寻找全连接层中对输入的图像的响应值,值最高的区域则选择为建议注意力区域正方形;
分类子网络f由一个全连接层以及一个softmax层组成:
P(X)=f(wc*X)
其中,X为输入的图像,P(X)为分类子网络的输出结果向量,向量的每一个维度表示输入图像属于该维度代表的种类的概率,wc为图像特征提取过程的参数矩阵;wc*X包括三段卷积网络,每段卷积网络含有两个卷积层以及一个最大池化层,经过图像特征提取得到的特征图谱分别送入分类子网络f以及注意力建议子网络g;
注意力建议子网络g由两个全连接层组成,其中最后一个全连接层的输出通道为3个,分别对应tx,ty,tl;
[tx,ty,tl]=g(wc*X)
其中,tx,ty为输出注意力区域中心点的横纵坐标、tl为输出注意力区域的边长的1/2;
从原图中裁剪提取出注意力区域的过程为:
Xatt=X⊙M(tx,ty,tl)
其中,Xatt为注意力区域,X为原始输入图像,M(tx,ty,tl)表示由tx,ty,tl生成的掩膜;
步骤2.2:整个网络以交替的方式进行训练,保持注意力区域建议子网络的参数不变,根据双线性插值的方法对每个注意力区域进行放缩;每个注意力区域建议的输出区域放大到与输入图像X大小相同的像素;
所述放缩方法如下:
首先进行水平方向的插值:
其中R1=(x,y1);
其中R2=(x,y2)
接下来进行竖直方向的插值,求出p点的像素值:
其中,p(x,y)表示待插点p的坐标为x、y,q(p)为待插点p的像素值,Q11(x1,y1)、Q12(x1,y2)、Q21(x2,y1)、Q22(x2,y2)分别为待插点p周围的四个点,x1,y1为点Q11的坐标,x1,y2为点Q12的坐标,x2,y1为点Q21的坐标,x2,y2为点Q22的坐标;R1为p点垂线与Q11和Q21两点形成的线段的焦点,x,y1为点R1的坐标;R2为p点垂线与Q12和Q22两点形成线段的焦点,x,y2为点R2的坐标;
步骤2.3:根据放缩后的注意力区域来优化每个尺度的分类损失,每个尺度的学习包括一个分类子网络和一个注意力区域建议子网络;固定卷积层和分类层的参数不变,使用损失函数来优化注意力区域建议子网络;
损失函数L(X)由分类损失与ranking损失两个部分构成,根据损失函数L(X)表示为:
其中,Y*表示图像的真实种类,Ys表示在s尺度下的分类结果,Po(s)表示在s尺度下分类子网络输出为真实种类的概率;
ranking损失Lrank(Po(s),Po(s+1))为:
Lrank(Po(s),Po(s+1))=max(0,Po(s)-Po(s+1)+margin)
其中margin表示阈值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东北大学,未经东北大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910333050.4/1.html,转载请声明来源钻瓜专利网。
- 彩色图像和单色图像的图像处理
- 图像编码/图像解码方法以及图像编码/图像解码装置
- 图像处理装置、图像形成装置、图像读取装置、图像处理方法
- 图像解密方法、图像加密方法、图像解密装置、图像加密装置、图像解密程序以及图像加密程序
- 图像解密方法、图像加密方法、图像解密装置、图像加密装置、图像解密程序以及图像加密程序
- 图像编码方法、图像解码方法、图像编码装置、图像解码装置、图像编码程序以及图像解码程序
- 图像编码方法、图像解码方法、图像编码装置、图像解码装置、图像编码程序、以及图像解码程序
- 图像形成设备、图像形成系统和图像形成方法
- 图像编码装置、图像编码方法、图像编码程序、图像解码装置、图像解码方法及图像解码程序
- 图像编码装置、图像编码方法、图像编码程序、图像解码装置、图像解码方法及图像解码程序





