[发明专利]一种基于PAD的影像情感标注的方法在审
申请号: | 202210108608.0 | 申请日: | 2022-01-28 |
公开(公告)号: | CN114547240A | 公开(公告)日: | 2022-05-27 |
发明(设计)人: | 由芳;刘雨佳;王城极;王羽希;王建民 | 申请(专利权)人: | 同济大学 |
主分类号: | G06F16/33 | 分类号: | G06F16/33;G06F16/583;G06F16/783 |
代理公司: | 上海德昭知识产权代理有限公司 31204 | 代理人: | 陈龙梅 |
地址: | 200092 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 pad 影像 情感 标注 方法 | ||
本发明提供了一种基于PAD的影像情感标注的方法,包括以下步骤:步骤1,收集情感词语构建情感词语集合,评定并计算情感词语集合中的每个情感词语在PAD空间的空间坐标值;步骤2,设计图像来表达对应的情感词语,并根据图像构建图像库,为每个图像选择最贴切的第一情感词语并进行初次验证;步骤3,评定并计算影像库中的每个图像在PAD空间的坐标值的平均值,得到每个图像基于PAD空间的空间坐标值;步骤4,对图像与情感词语集合中的情感词语在PAD空间中的欧式距离进行计算,根据欧式距离对图像选择的第一情感词语进行二次验证;步骤5,二次验证通过后,将第一情感词语作为情感标签为对应的图像进行标注。
技术领域
本发明属于数据分析技术领域,具体涉及一种基于PAD的影像情感标注的方法。
背景技术
随着近年来计算机技术在图像及语音处理方面的快速发展,情感计算已成为人机交互方面的一个研究热点。大量的影像数据携带了情感信息,如何有效表示和描述图像的情感,并且给予量化,成为影像标注与检索领域的一个重要且有挑战性的课题。影像情感标注作为一种特殊的影像分类技术,无论是技术方向还是应用方向都还处在不断探索中。不同于文本情感分析,影像中的情感是隐藏的,是一种高级语义情感理解,面对互联网中大量的图片以及视频信息,需要更有效的方法完成影像特征的抽取、情感判别与分类。
现有的图片情感标注技术主要分为两类:传统图片情感分析和深度学习。
传统图片情感分析的一个重要内容是对视觉特征的提取,这需要从底层、中层或高层分别进行提取。底层特征的提取需要对图片内容中的“颜色”“纹理”“构图”“内容”等视觉特征进行提取,这是一个不断提高判别准确率的过程。仅从图像底层视觉特征进行情感分析是不可靠的,和人类感知存在一定的偏差,相同的图像可能会在不同的对象或不同的时间产生不同的情感,即底层视觉特征与高层人类感知存在鸿沟。目前多数中高层特征的研究主要针对人类的脸部特征,如在面部表情情感分析中将照明、姿势、面部尺寸和面部标准误差作为高层特征进行分析。这种方式情感标注方式过程上比较繁琐。
深度学习的方法在于构建精确的算法,以及提高算法的准确率,且需要大量的数据集作为前期训练,因此前期准确率会比较低下。例如,CNN模型具有容易出现梯度消散问题、空间关系辨识度差、物体大幅度旋转之后辨识能力低下等缺点,针对这些问题采用相应的优化算法是提高模型准确率的关键。研究发现模型准确率会随着神经网络层数的增加而提高,但模型结构的复杂性会加大计算量,延长训练模型时间,并且训练数据集大小也会在一定程度上影响模型的准确率,因此深度学习的方法还需要不断地优化。
发明内容
本发明是为了解决上述问题而进行的,目的在于提供一种基于PAD的影像情感标注的方法。
本发明提供了一种基于PAD的影像情感标注的方法,具有这样的特征,包括以下步骤:步骤1,收集情感词语构建情感词语集合,评定并计算情感词语集合中的每个情感词语在PAD空间的空间坐标值;
步骤2,设计图像来表达对应的情感词语,并根据图像构建图像库,为每个图像选择最贴切的第一情感词语并进行初次验证;
步骤3,评定并计算影像库中的每个图像在PAD空间的坐标值的平均值,得到每个图像基于PAD空间的空间坐标值;
步骤4,对图像与情感词语集合中的情感词语在PAD空间中的欧式距离进行计算,根据欧式距离对图像选择的第一情感词语进行二次验证;
步骤5,二次验证通过后,将第一情感词语作为情感标签为对应的图像进行标注。
在本发明提供的基于PAD的影像情感标注的方法中,还可以具有这样的特征:其中,步骤1中,PAD空间由愉悦度、激活度和优势度三个维度构成,通过人工评定对每个情感词语的愉悦度、激活度和优势度进行评分并分别计算各评分的平均值,作为每个情感词语在PAD空间的空间坐标值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于同济大学,未经同济大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210108608.0/2.html,转载请声明来源钻瓜专利网。