[发明专利]基于人工智能神经网络的轨道交通地面目标视频识别方法有效
申请号: | 201910087942.0 | 申请日: | 2019-01-29 |
公开(公告)号: | CN109815922B | 公开(公告)日: | 2022-09-30 |
发明(设计)人: | 王澜;李春梅;孙文芳;韩海亮 | 申请(专利权)人: | 卡斯柯信号有限公司 |
主分类号: | G06V20/40 | 分类号: | G06V20/40;G06V10/774;G06V10/82;G06K9/62;G06N3/04 |
代理公司: | 上海科盛知识产权代理有限公司 31225 | 代理人: | 应小波 |
地址: | 200070 上海市静安区*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 人工智能 神经网络 轨道交通 地面 目标 视频 识别 方法 | ||
本发明涉及一种基于人工智能神经网络的轨道交通地面目标视频识别方法,该方法采用可自我进化的人工智能神经网络,所述的识别方法包括:(1)输入适配过程,该过程对输入数据进行归一化、基因旋变、适当的卷积和池化,使之与中枢处理过程适配;(2)中枢处理过程,该过程根据数据源特性进行并行PipeLine或不并行处理运算,其中运算包括多层的卷积和池化;(3)输出识别过程,根据目前训练的网络,动态插入基因旋转因子,生成不同的输出特征进行输出。与现有技术相比,本发明具有识别效率高、识别精度高等优点。
技术领域
本发明涉及轨道交通地面目标视频识别方法,尤其是涉及一种基于人工智能神经网络的轨道交通地面目标视频识别方法。
背景技术
对卷积神经网络的研究始于二十世纪80至90年代,时间延迟网络和LeNet-5是最早被证实有效的卷积神经网络算法。在二十一世纪后,随着数值计算设备的改进,卷积神经网络得到了快速发展,并被大量应用于计算机视觉、自然语言处理等领域。
2006年后,随着深度学习理论的完善,尤其是逐层学习和参数微调(fine-tuning)技术的出现,卷积神经网络开始快速发展,在结构上不断加深,各类学习和优化理论得到引入。自2012年的AlexNet开始,各类卷积神经网络多次成为ImageNet大规模视觉识别竞赛(ImageNet Large Scale Visual Recognition Challenge,ILSVRC)的优胜算法,包括2013年的ZFNet、2014年的VGGNet、GoogLeNet和2015年的ResNet。
随着全世界发达国家推进人工智能研究成果后(如无人驾驶、机器人),其余有计算机科研实力的发展中国家也纷纷介入,各种人工智能深度学习模型层出不穷,仅视频目标检测算法模型就有二十多种,而且还在不断增加中。目前人工智能深度学习模型已经被大量用到视觉感知、语音识别、云计算及大数据分析、基于传感网络的边缘计算和物联网中,针对不同领域,需要不同的模型进行分类识别分析,给从事人工智能应用的计算机工程人员带来不少的困惑。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于人工智能神经网络的轨道交通地面目标视频识别方法。
本发明的目的可以通过以下技术方案来实现:
一种基于人工智能神经网络的轨道交通地面目标视频识别方法,该方法采用可自我进化的人工智能神经网络,所述的识别方法包括:
(1)输入适配过程,该过程对输入数据进行归一化、基因旋变、初步的卷积和池化,使之与中枢处理过程适配;
(2)中枢处理过程,该过程根据数据源特性进行并行PipeLine或不并行处理运算,其中运算包括多层的卷积和池化;
(3)输出识别过程,根据目前训练的网络,动态插入基因旋转因子,生成不同的输出特征进行输出。
优选地,所述的基因旋转因子为αλθ+β,其中λ为N阶单位矩阵,α为乘积因子,β为偏移量,θ为单位矩阵旋转角度。
优选地,通过所述的基因旋变因子可将已识别对象中更细节部分提取出来进行运算。
优选地,通过改变基因旋变因子的旋变角度和参数,可以得到一种识别对象的多种属性,其中识别对象包括图像和声音,多种属性包括人性别、服装颜色、表情。
优选地,所述的人工智能神经网络前期可利用原先训练神经网络得出输入适配层至输出适配层间所有层的训练参数,包括卷积层和池化层,将这些层中的参数固化,然后将基因旋变因子中的θ旋转1/N*360度,进行训练,根据误差反馈,修整α和β参数,如果能达到误差最小化并收敛,则满足要求,反之,则继续将θ旋转1/N*360度,继续训练。
优选地,所述的交通地面目标包括汽车、行人、指示牌和信号灯。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于卡斯柯信号有限公司,未经卡斯柯信号有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910087942.0/2.html,转载请声明来源钻瓜专利网。