[发明专利]一种基于图卷积的人脸聚类优化方法在审
| 申请号: | 202210364466.4 | 申请日: | 2022-04-08 |
| 公开(公告)号: | CN114882547A | 公开(公告)日: | 2022-08-09 |
| 发明(设计)人: | 毕海;徐晓刚;李冠华 | 申请(专利权)人: | 杭州云栖智慧视通科技有限公司 |
| 主分类号: | G06V40/16 | 分类号: | G06V40/16;G06V10/74;G06V10/762;G06V10/774;G06V10/82;G06N3/04;G06N3/08 |
| 代理公司: | 天津市尚仪知识产权代理事务所(普通合伙) 12217 | 代理人: | 邓琳 |
| 地址: | 310000 浙江省杭州市*** | 国省代码: | 浙江;33 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 图卷 人脸聚类 优化 方法 | ||
本发明公开了一种基于图卷积的人脸聚类优化方法,通过人脸特征F以及人脸特征相似度,人脸图像质量分;使用人脸特征相似度与人脸图像质量分构建人脸特征相似图,得到GCN网络输入数据;将得到含有点属性矩阵和邻接矩阵的每个图样本与GCN网络进行重建,并通过重建后GCN网络输出每个图样本中每个人脸节点是否属于该人脸类别结果;根据输出的人脸类别结果进行判定,如果某一人脸不属于这个类,则将该人脸从此类中移除,同时,对距离该类有较高相似度的人脸进行核验,如果待核验人脸属于该类别,则将该人脸加入此类别中;实现了人脸聚类优化与提纯的目的。
技术领域
本发明涉及模式识别与计算机视觉技术领域,具体为一种基于图卷积的人脸聚类优化方法。
背景技术
随着视频监控布署的普及和视频网络直播业务的爆炸式增长,越来越多数视频数据需要进行分析和处理,其中一种比较高效方法即是以视频行为主体为分析对象(人)进行归类进一步分析处理。虽然深度的学习技术的提出推动了人脸识别技术飞速发展,识别精度也达到或超过人类的识别水平,然而,非匹配合场景下的视频中人脸识别问题由于姿态、光照、模糊等诸多因素影响一直没有得到很好的解决,当前深度人脸识别算法往往需要海量标注的人脸数据,而基于无监督的人脸聚类算法是提供大量人脸标注的有效方法,其中人脸聚类算法是对于大量无标注的人脸数据按人物身份进行归类,即同一个人的人脸数据图像归为一类或一个簇,在视频数据有效分析与处理中起到至关重要的作用。当前人脸聚类算法由于人脸数据多类噪音的影响往往出现聚类精度不高,聚类错误积加等问题。因此我们对此做出改进,提出一种基于图卷积的人脸聚类优化方法。
发明内容
为了解决上述技术问题,本发明提供了如下的技术方案:
本发明一种基于图卷积的人脸聚类优化方法,包括以下几个步骤,
步骤1、数据集准备与预处理;使用预训练人脸识别模型提取待训练人脸识别数据,得到人脸特征F以及人脸特征相似度,对于每一个人脸特征F一般表示为p维人脸特征向量,则有F∈Rp;随后使用人脸图像质量判定方法对待训练人脸识别数据的人脸图像进行判定,人脸图像质量分类值Q,以及得到人脸图像质量分;
步骤2、使用人脸特征相似度与人脸图像质量分构建人脸特征相似图,得到GCN网络输入数据;是通过图神经网络G={V,E,A}利用人脸特征相似度与人脸图像质量分构建输入样本图Ti,并得到每个图样本中的节点属性矩阵和邻接矩阵
步骤3、将得到含有点属性矩阵和邻接矩阵的每个图样本与GCN网络进行重建,并通过重建后GCN网络输出每个图样本中每个人脸节点是否属于该人脸类别结果;
步骤4、根据输出的人脸类别结果进行判定,如果某一人脸不属于这个类,则将该人脸从此类中移除,同时,对距离该类有较高相似度的人脸进行核验,如果待核验人脸属于该类别,则将该人脸加入此类别中;实现了人脸聚类优化与提纯的目的。
作为本发明的一种优选技术方案,所述的步骤2中,使用人脸特征相似度与人脸图像质量分构建人脸特征相似图,得到GCN网络输入数据;是通过图神经网络G={V,E,A}利用人脸特征相似度与人脸图像质量分构建输入样本图Ti,并得到每个图样本中的节点属性矩阵和邻接矩阵的方法是,
其中图神经网络G={V,E,A}表示由若干节点V,若干连边E和邻接关系矩阵A组成的图神经网络,其中每个节点具有d维属性向量,当一个图存在N个节点,则图神经网络输入的节点属性矩阵X∈RN×D和邻接矩阵A∈RN×N,设vi∈V,eij=(vi,vj)∈E作为节点Vi与节点Vj的一条连边,则NxN邻接矩阵A,其中Aij=wij>0如果cij∈E,Aij=wij=0如果
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州云栖智慧视通科技有限公司,未经杭州云栖智慧视通科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210364466.4/2.html,转载请声明来源钻瓜专利网。





