[发明专利]一种基于高精度哈希图像检索技术的行人检测方法及系统在审
申请号: | 201910247002.3 | 申请日: | 2019-03-29 |
公开(公告)号: | CN109948585A | 公开(公告)日: | 2019-06-28 |
发明(设计)人: | 焦宏哲;魏斯玮;傅稼润;王春枝;严灵毓;叶志伟 | 申请(专利权)人: | 湖北工业大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06F16/51 |
代理公司: | 北京金智普华知识产权代理有限公司 11401 | 代理人: | 杨采良 |
地址: | 430068 湖*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 哈希 图像检索技术 目标函数 行人检测 哈希码 隐藏层 最小化 算法 人工神经网络ANN 语义 对象搜索 哈希函数 机器学习 图像检索 相似矩阵 训练函数 端到端 全面性 准确率 权重 学习 标签 图像 创建 | ||
1.一种基于高精度哈希图像检索技术的行人检测方法,其特征在于,所述基于高精度哈希图像检索技术的行人检测方法包括:
对于提取的行人图像采用机器学习创建目标函数,进行目标最小化,得到临阶相似矩阵,再采用ILS算法进一步最小化目标函数,得到精确的哈希码;
得到精确的哈希码后,采用端到端哈希深度学习方法学习哈希函数,根据人工神经网络ANN的隐藏层中不同节点的不同权重对输入进行调整;并进行CNNs后,选择单隐藏层MLP学习hash标签;最后生成训练函数:
表示输出为一个mxd矩阵,m是批量的样本数量,d是最后一个全连接层的输出数量,x是输出向量,y是对应的标签。
2.如权利要求1所述的基于高精度哈希图像检索技术的行人检测方法,其特征在于,所述基于高精度哈希图像检索技术的行人检测方法具体包括:
第一步,获取目标图像;
第二步,创建临阶相似矩阵;
第三步,将生成的矩阵带入ISL算法得到对应的哈希码标签;
第四步,将所生成的哈希码标签带入Ann网络进项多次迭代学习,得到最终的检测结果。
3.如权利要求2所述的基于高精度哈希图像检索技术的行人检测方法,其特征在于,第一步中,采用深层的CNN网络结构获取图像的特征;在图片经过深层次的神经网络捕捉特征后,对获取的特征进行数据格式上的规范化处理,使特征的数据格式完全符合哈希码创建公式:
S.t.HHT=I
其中N为输入特征向量的临近集合,S为创建的临近相似矩阵,C为偏置参数;I为单位矩阵。
4.如权利要求2所述的基于高精度哈希图像检索技术的行人检测方法,其特征在于,第二步中,建立n×n相似矩阵S,两个二进制码hi和hj之间的汉明距离由hi和hj之间不同的比特数给出;将加权平均汉明距离最小化,表示语义损失,得到符合相似矩阵S计算公式的哈希码。
5.如权利要求4所述的基于高精度哈希图像检索技术的行人检测方法,其特征在于,得到符合相似矩阵S计算公式的哈希码中,训练特征为:X=[x1,x2,...,xn]∈Rp×n,训练特征为前面环节所输入的视觉特征,R为参数矩阵,n为训练图像的个数,p为特征的维数,设哈希码为H=[h1,h2,...,hn]T∈{1,-1}n×c,c是哈希码的长度,n为图片的数量;
其中Nk(x)表示特征向量x的近邻集合;通过相似矩阵S判断特征是否所输入参数是否属于临近特征集合。
6.如权利要求4所述的基于高精度哈希图像检索技术的行人检测方法,其特征在于,第三步中,哈希函数表示为:
哈希函数为最终哈希码H的计算公式,选取(N-S+φC)的最小非零特征值作为H的数值;其中N为输入特征向量的临近集合,S为创建的临近相似矩阵,C为偏置参数;I为单位矩阵。
7.如权利要求2所述的基于高精度哈希图像检索技术的行人检测方法,其特征在于,第四步中,采用MLP算法的端到端的深度学习算法学习哈希函数;MLP包括一个输入层,一个输出层和若干个隐藏层;根据隐藏层中不同节点的不同权重对输入进行调整;进行CNNs后,选择单隐藏层型的MLP学习哈希码标签,在多输出条件下构建ANN的端到端的哈希函数深度学习模型。
8.一种实施权利要求1所述的基于高精度哈希图像检索技术的行人检测方法的基于高精度哈希图像检索技术的行人检测控制系统。
9.一种实施权利要求1所述的基于高精度哈希图像检索技术的行人检测方法的道路交通行人图像检索检测终端。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于湖北工业大学,未经湖北工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910247002.3/1.html,转载请声明来源钻瓜专利网。