[发明专利]特征学习的方法、目标物体的识别方法和对应装置在审
申请号: | 202110360265.2 | 申请日: | 2021-04-02 |
公开(公告)号: | CN113705310A | 公开(公告)日: | 2021-11-26 |
发明(设计)人: | 曹琼;车翔 | 申请(专利权)人: | 腾讯科技(深圳)有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 深圳市深佳知识产权代理事务所(普通合伙) 44285 | 代理人: | 夏欢 |
地址: | 518000 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 特征 学习 方法 目标 物体 识别 对应 装置 | ||
本申请提供了一种特征学习的方法、目标物体的识别方法和对应装置,应用于图像识别技术领域。特征向量提取模型是基于图像样本中所包含目标物体的特征向量对应的第一损失值和第二损失值,训练神经网络模型得到,第一损失值表征图像样本与图像样本所属类别对应的类中心的差距,第二损失值表征不同的图像样本所属类别对应的类中心之间的相关性;因此可以看出,经过第一损失值和第二损失值对神经网络模型的训练,可以使训练得到的特征向量提取模型对图像进行目标物体的特征向量提取时,能够缩小图像与图像所属类别对应的类中心的差距,且减小不同的图像所属类别对应的类中心之间的相关性,提高特征向量提取模型对图像进行目标物体的特征向量的准确性。
技术领域
本申请涉及图像识别技术领域,尤其涉及一种特征学习的方法、目标物体的识别方法和对应装置。
背景技术
近年来,随着社交媒体平台上海量短小视频的涌现,平台对用户画像描述,内容推荐及审核的需求越来越大,物体识别作为视频理解中重要信息之一,引起了越来越多的关注,例如人脸识别。但是相比图片上的物体识别,社交平台上用户拍摄并上传的短视频普遍存在抖动,模糊,光照变化强烈,场景变化复杂等问题,这也给短视频上的物体识别带来了更大的挑战。
在物体识别过程中,物体的图像特征提取是较为重要的步骤之一,能够极大的影响物体识别的准确性。然而,目前对物体的图像特征提取的技术,普遍存在特征提取不准确的问题。
发明内容
有鉴于此,本申请提供一种特征学习的方法、目标物体的识别方法和对应装置,以解决现有技术中物体的图像特征提取不准确的问题。
为实现上述目的,本申请提供如下技术方案:
本申请第一方面公开了特征学习的方法,包括:
获取待提取图像;其中,所述待提取图像中包括目标物体,所述目标物体为被提取特征向量的物体;
调用训练好的特征向量提取模型处理所述待提取图像,得到所述待提取图像中的目标物体的特征向量;其中,所述特征向量提取模型为基于图像样本中所包含目标物体的特征向量对应的第一损失值和第二损失值,对神经网络模型训练得到的;其中,所述第一损失值和所述第二损失值为基于预定中心损失函数对图像样本中所包含目标物体的特征向量进行处理得到,所述预定中心损失函数的类中心为所述神经网络模型的全连接层的权重;所述第一损失值用于表征图像样本与所述图像样本所属类别对应的类中心的差距,所述第二损失值用于表征不同的图像样本所属类别对应的类中心之间的相关性。
可选的,上述的方法,所述方法还包括:
调用所述神经网络模型处理图像样本,得到所述图像样本中目标物体的特征向量;
利用所述预定中心损失函数处理所述图像样本中目标物体的特征向量,得到所述第一损失值和所述第二损失值;
计算所述第一损失值和所述第二损失值,得到损失总值,并以所述损失总值作为训练参数,训练所述神经网络模型,并将训练好的神经网络模型作为所述特征向量提取模型。
可选的,上述的方法,所述利用所述预定中心损失函数处理所述图像样本中目标物体的特征向量,得到第一损失值和第二损失值,包括:
利用所述预定中心损失函数的最小化类内距离的计算公式,计算所述图像样本中所包含目标物体的特征向量,得到所述第一损失值;并利用所述预定中心损失函数的正交化减小类内距离的计算公式,计算所述图像样本中所包含目标物体的特征向量,得到所述第二损失值。
可选的,上述的方法,所述调用所述神经网络模型处理图像样本,得到所述图像样本中目标物体的特征向量之后,还包括:
利用第一损失函数处理所述图像样本中目标物体的特征向量,得到第三损失值、利用第二损失函数处理所述图像样本中目标物体的特征向量得到第四损失值;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于腾讯科技(深圳)有限公司,未经腾讯科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110360265.2/2.html,转载请声明来源钻瓜专利网。