[发明专利]异质网络的异常目标检测方法、装置、设备及存储介质有效
申请号: | 201910020777.7 | 申请日: | 2019-01-09 |
公开(公告)号: | CN109948000B | 公开(公告)日: | 2023-04-07 |
发明(设计)人: | 史玉回;曲良;黄骏 | 申请(专利权)人: | 南方科技大学 |
主分类号: | G06F16/901 | 分类号: | G06F16/901;G06N3/044;G06N3/084;G06Q50/00 |
代理公司: | 广州嘉权专利商标事务所有限公司 44205 | 代理人: | 唐致明 |
地址: | 518055 广东省*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 网络 异常 目标 检测 方法 装置 设备 存储 介质 | ||
本发明公开了一种异质网络的异常目标检测方法、装置、设备及存储介质,该异常目标检测方法包括:获取异质网络的输入信息数据;根据该输入信息数据建立图神经网络模型;基于该输入信息数据和该图神经网络模型输出异常目标。本发明通过将异质网络的输入信息数据建立图神经网络模型,基于该输入信息数据和该图神经网络模型输出异常目标,该方法采用图神经网络模型,该模型与实际逼近程度高,从而使得检测结果准确。本发明可广泛应用于大数据的异质网络数据处理和分析检测。
技术领域
本发明涉及大数据领域,尤其是涉及一种异质网络的异常目标检测方法、装置、设备及存储介质。
背景技术
现有技术中,对这种动态异质网络的学习方式一般是基于随机行走和Skip-Gram,以及矩阵分解的方式,随机行走和Skip-Gram是受自然语言处理领域的一种启发,将网络中相连的若干节点看作自然语言处理中的一句话,从而利用自然语言处理技术对网络节点进行表征。矩阵分解是通过将图的高维拉普拉斯矩阵分解成两个维度更小的矩阵乘积的形式,但是计算代价高且很难自然地处理动态网络问题。另一方面,传统方法往往利用凸优化技术对此非凸问题进行优化,容易陷到局部最优解,使其学习准确率受到极大限制。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。为此,本发明的一个目的是提供一种异质网络的异常目标检测方法、装置、设备及存储介质。
本发明所采用的技术方案是:
第一方面,本发明提供一种异质网络的异常目标检测方法,该异常目标检测方法包括:获取异质网络的输入信息数据;根据该输入信息数据建立图神经网络模型;基于该输入信息数据和该图神经网络模型输出异常目标,该异常目标为该异质网络的节点、社团或链接。
其中,该基于该输入信息数据和该图神经网络模型输出异常目标的步骤具体包括:基于该输入信息数据和该图神经网络模型得到该异质网络的节点的低维表征向量矩阵;从该表征向量矩阵中抽取出社团、节点及链接;对该社团、该节点及该链接,采用机器学习算法输出异常目标。
其中,该对该社团采用机器学习算法输出异常目标的步骤具体包括:将该异质网络划分为k个社团,那么可以定义一个k×k的对称矩阵e,该对称矩阵的元素eij用来表示社团i和社团j之间连边的数目与整个网络所有连边数目的比值,ei为连接到社团i中所有节点的边数占整个网络所有连边数目的比值;分别计算该k个社团的异常值,每个社团的异常值根据分数维模块性计算公式计算:Qi为该社团的异常值,取值为复数,n为异常类型,n=3,4,5,6,7;将异常值的绝对值偏离平均值幅度大于标准差的预定百分比的社团作为异常社团,该异常社团为该异常目标。
其中,该对该节点或该链接采用机器学习算法输出异常目标的步骤具体包括:将该节点或该链接输入到机器学习算法中,得出该节点或该链接是否为异常;如果该节点或该链接为异常,则该节点或该链接为该异常目标。
其中,该根据该输入信息数据建立图神经网络模型的步骤具体包括:从该输入信息数据的节点中确定目标节点,将该目标节点作为该图神经网络模型的第一层;选择目标节点的邻居节点,将该目标节点的邻居节点作为该图神经网络模型的第二层;再选择该邻居节点的邻居节点,将该邻居节点的邻居节点作为该图神经网络模型的第三层;以此类推,直至完成该图神经网络模型的最底层的邻居节点的选择;从该最后一层向上传播训练该图神经网络模型。
其中,该图神经网络模型的邻居节点信息聚集公式为:其中,hv代表节点v的表征,σ是非线性激活函数,W是网络中学习的权重参数,u代表节点v的邻居节点,hu代表节点u的表征,N代表节点的所有邻居节点集合,B是对于不同邻居节点分配的权重参数,t代表当前时刻,t+1代表下一时刻。
其中,采用头脑风暴算法对该图神经网络模型的权重参数进行优化。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南方科技大学,未经南方科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910020777.7/2.html,转载请声明来源钻瓜专利网。