[发明专利]一种基于图网络学习的目标识别方法有效
申请号: | 202011472272.3 | 申请日: | 2020-12-15 |
公开(公告)号: | CN112488038B | 公开(公告)日: | 2023-07-07 |
发明(设计)人: | 成清;程光权;黄金才;冯旸赫;吴克宇 | 申请(专利权)人: | 中国人民解放军国防科技大学 |
主分类号: | G06V20/00 | 分类号: | G06V20/00;G06V10/82;G06N3/04;G06N3/084 |
代理公司: | 长沙大珂知识产权代理事务所(普通合伙) 43236 | 代理人: | 伍志祥 |
地址: | 410073 湖*** | 国省代码: | 湖南;43 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 网络 学习 目标 识别 方法 | ||
本发明提供一种基于图网络学习的目标识别方法,利用多源传感器捕捉目标的模拟数据,通过特征向量选择方法将模拟数据分为基础正常数据和剩余正常数据,其中基础正常数据在通过预设的自回归模型进行迭代算法,之后对基础正常数据和剩余生产数据计算残差,并观测残差值是否有异常,若残差值过大则数据异常需要重新对数据进行计算,若残差值较低则输出数据,所述特征向量选择对模拟数据进行初选剔除部分干扰数据,同时对模拟数据进行抽样,抽样数据形成剩余正常数据,剩余的模拟数据则为基础正常数据,本发明利用多源传感器捕捉数据后,利用图神经网络进行深度学习和分析,对目标进行识别和捕捉。
技术领域
本发明涉及图神经网络应用技术领域,具体为一种基于图网络学习的目标识别方法。
背景技术
图神经网络(GNN)最主要是提供了图嵌入(Graph Embedding)这一可以用来进行图表征学习的技术,将传统的图分析引入,扩展了深度学习对于非欧几里得数据的处理能力,提供了对非规则数据提取特征的方法,它被广泛应用于社交网络,推荐系统,金融风控,物理系统,分子化学,生命科学,知识图谱,交通预测等领域。但对于非结构化数据(文本,图像),目前研究人员均有所尝试,但具体的应用成果比较少。
机器视觉是人工智能正在快速发展的一个分支。简单说来,机器视觉就是用机器代替人眼来做测量和判断。机器视觉系统是通过机器视觉产品(即图像摄取装置,分CMOS和CCD两种)将被摄取目标转换成图像信号,传送给专用的图像处理系统,得到被摄目标的形态信息,根据像素分布和亮度、颜色等信息,转变成数字化信号;图像系统对这些信号进行各种运算来抽取目标的特征,进而根据判别的结果来控制现场的设备动作。
现有的机器视觉识别效率较低精准度较差,而图神经网络与机器视觉具有高度的契合度,具有很强的开发前景。
发明内容
(一)解决的技术问题
针对现有技术的不足,本发明提供了一种基于图网络学习的目标识别方法,以解决上述背景技术中提出的问题。
(二)技术方案
为实现以上目的,本发明通过以下技术方案予以实现:一种基于图网络学习的目标识别方法,利用多源传感器捕捉目标的模拟数据,通过特征向量选择方法将模拟数据分为基础正常数据和剩余正常数据,其中基础正常数据在通过预设的自回归模型进行迭代算法,之后对基础正常数据和剩余正常数据计算残差,并观测残差值是否有异常,若残差值过大则特征向量选择方法划分的基础正常数据和剩余正常数据异常,需要重新划分基础正常数据和剩余正常数据并将重新划分后的基础正常数据通过预设的自回归模型进行迭代算法,后对重新划分的基础正常数据和剩余正常数据进行残差计算,若残差值较低则输出模拟数据。
优选的,所述特征向量选择对模拟数据进行初选剔除部分干扰数据,同时对剔除部分干扰数据后的模拟数据进行抽样,抽样数据形成剩余正常数据,剩余的模拟数据则为基础正常数据。
优选的,所述自回归模型中集成有图神经网络,所述图神经网络中设有多个网络节点,每个网络节点对应一个传感器的状态信息,网络节点对基础正常数据进行类比学习。
优选的,所述图神经网络中设有学习集L={(Gi,ni,j,ti,j)|Gi=(Ni,Ei)∈G,ni,j∈Ni,ti,j∈Rm,1≤i≤p,1≤j≤qi}对于一个学习集参数是通过学习集估计出参数w,即神经网络的权重,其中qi为已知信息的节点数,根据传统神经网络理论,学习的任务即最小化目标函数
优选的,所述图神经网络采用梯度下降策略进行学习,所述梯度下降策略设有编码网络进行学习。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国人民解放军国防科技大学,未经中国人民解放军国防科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011472272.3/2.html,转载请声明来源钻瓜专利网。