[发明专利]一种基于孪生图卷积哈希网络的敏感图像识别方法在审
申请号: | 202110185763.8 | 申请日: | 2021-02-11 |
公开(公告)号: | CN112861976A | 公开(公告)日: | 2021-05-28 |
发明(设计)人: | 张笑钦;李兵;胡卫明 | 申请(专利权)人: | 温州大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04;G06N3/08;G06T9/00 |
代理公司: | 北京阳光天下知识产权代理事务所(普通合伙) 11671 | 代理人: | 李满红 |
地址: | 325000 浙江省温州市瓯*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 孪生 图卷 积哈希 网络 敏感 图像 识别 方法 | ||
本发明提供了一种基于孪生图卷积哈希网络的敏感图像识别方法,包括:构建训练图像样本数据库;将所述训练图像样本数据库中的训练图像样本集输入孪生卷积神经网络模型,对所述训练图像样本集中的敏感图像进行特征提取,得到全连接层低维的敏感图像卷积特征;采用哈希编码的方法对全连接层低维的敏感图像卷积特征进行编码得到哈希编码;根据所述哈希编码的汉明距离和类标签计算出似然损失,反向传播更新网络的参数,训练一个分类网络,将获取待识别图像数据输入分类网络中通过计算待识别图像的哈希编码与敏感图像数据库中图像哈希编码的汉明距离,得到敏感图像识别结果,本发明采用孪生卷积神经网络及哈希编码相结合的方式,可有效识别敏感图像。
技术领域
本发明涉及图像识别技术领域,尤其涉及到一种基于孪生图卷积哈希网络的敏感图像识别方法。
背景技术
随着科技水平的发展和互联网的快速普及,网络传播成为了人们分享信息的重要方式,但由于互联网信息传播内容冗杂,如果无法对某些敏感信息进行有效的筛选和监管,造成一些非法、暴力和色情图像等不良信息大量传播,会极大地危害到社会稳定和人们的身心健康,尤其影响青少年的健康成长。因此,采取相关技术手段,遏制互联网不良信息产业发展,严厉打击从事非法服务的信息网站是一个需要重视的社会问题。因为互联网数据特性,其需要识别的敏感图像数据量十分庞大,而目前的图像识别模型存在实时识别速率较低,且精准度不高等问题。
综上所述,提供一种识别效率更快,且识别精准度更高,适应性较好的基于孪生图卷积哈希网络的敏感图像识别方法,是本领域技术人员急需解决的问题。
发明内容
本方案针对上文提到的问题和需求,提出一种基于孪生图卷积哈希网络的敏感图像识别方法,其由于采取了如下技术方案而能够解决上述技术问题。
为实现上述目的,本发明提供如下技术方案:一种基于孪生图卷积哈希网络的敏感图像识别方法,包括:步骤S10:获取训练图像数据集,对所述训练图像数据集中的所有图像进行尺寸调整并对部分图像进行分类和标签标记,构建训练图像样本数据库;
步骤S20:将所述训练图像样本数据库中的训练图像样本集输入孪生卷积神经网络模型,对所述训练图像样本集中的敏感图像进行特征提取,得到全连接层低维的敏感图像卷积特征;
步骤S30:采用哈希编码的方法对所述全连接层低维的敏感图像卷积特征进行编码得到哈希编码;
步骤S40:根据所述哈希编码的汉明距离和类标签计算出似然损失,然后反向传播更新网络的参数,训练一个分类网络;
步骤S50:获取待识别图像数据,并对待识别图像进行光照补偿,将所述待识别图像经过步骤S10和步骤S20处理得到的低维卷积特征输入到所述分类网络中,得到待识别图像的哈希编码,通过计算待识别图像的哈希编码与敏感图像数据库中图像的哈希编码的汉明距离,得到敏感图像识别结果。
进一步地,所述训练图像样本数据库中每一个训练图像样本集有一组图像对。
更进一步地,所述步骤S20具体包括:步骤S21:将训练图像样本集中的一组图像对分别输入孪生卷积神经网络;步骤S22:并根据成对的类标签计算似然损失,对孪生卷积神经网络进行预训练获得参数和丰富的图像表示,所述孪生卷积神经网络包括两个结构相同、权值共享的深度卷积神经网络,每个深度卷积神经网络包括5层卷积层和2层全连接层,由所述深度卷积神经网络输出的神经元节点作为特征表达。
更进一步地,所述步骤S30具体包括:步骤S31:所述深度卷积神经网络输出的神经元节点集合oi至哈希编码层;步骤S32:哈希编码层通过激活函数来限制输出值得范围得到哈希码集合。
更进一步地,所述激活函数采用双正切函数对网络的输出进行限制,最后再利用符号函数完成量化,得到哈希编码集合n为所述深度卷积神经网络输出的神经元节点数,rn中的各个值ri∈{1,-1}。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于温州大学,未经温州大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110185763.8/2.html,转载请声明来源钻瓜专利网。