[发明专利]一种基于MPSOC的目标识别实现方法在审
申请号: | 202211702795.1 | 申请日: | 2022-12-28 |
公开(公告)号: | CN116168319A | 公开(公告)日: | 2023-05-26 |
发明(设计)人: | 王东京;邱佳月;郑欣悦;张锋;高伟林 | 申请(专利权)人: | 苏州长风航空电子有限公司 |
主分类号: | G06V20/40 | 分类号: | G06V20/40;G06V10/774;G06V10/82;G06N3/08;G06N3/048;G06T1/20;G06N3/0464 |
代理公司: | 北京清大紫荆知识产权代理有限公司 11718 | 代理人: | 张梦龙 |
地址: | 215151 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 mpsoc 目标 识别 实现 方法 | ||
本申请提供了一种基于MPSOC的目标识别实现方法,属于人工智能技术领域,具体包括:基于多核系统级芯片平台FPGA端调用DPUCZDX8G IP核,设计多核深度学习处理器并行数据计算模块,对卷积神经网络目标识别算法模型进行并行加速计算;基于目标识别算法yolox,编译可兼容多核深度学习处理器指令运行的目标识别算法网络模型,将编译完成的网络模型指令文件yolox.xmodel部署到MPSOC平台FPGA端DPU模块中执行。通过本申请的处理方案,提高目标识别系统的实时性和可靠性。
技术领域
本申请涉及人工智能的领域,尤其是涉及一种基于MPSOC的目标识别实现方法。
背景技术
目前,基于光学图像的目标识别技术主要分为两种:一种是传统的模板匹配方法,另一种是如今主流的基于神经网络目标识别算法。传统的模板匹配算法鲁棒性差,严重依赖模板样本特征,目标识别准确率低,因此现在主流研究方向都是基于神经网络处理实现目标识别。
基于神经网络目标识别方法通过对大量样本数据进行训练,可实现目标泛化检测,具有较高的识别准确率。但是,在航空机载领域的AI目标识别技术应用还不够成熟,主要是因为现有目标识别算法难以在机载端设备中进行部署,一般支持AI算法运行的高性能GPU计算平台运行功耗较大、可靠性低、其硬件架构不易扩展等缺点,导致基于GPU的高性能计算平台难以在严峻的航空机载环境下应用。
发明内容
有鉴于此,本申请提供一种基于MPSOC的目标识别实现方法,解决了现有技术中的问题,提高目标识别系统的实时性和可靠性。
本申请提供的一种基于MPSOC的目标识别实现方法采用如下的技术方案:
一种基于MPSOC的目标识别实现方法,包括:
步骤一:基于多核系统级芯片平台FPGA端调用DPUCZDX8G IP核,设计多核深度学习处理器并行数据计算模块,对卷积神经网络目标识别算法模型进行并行加速计算;
步骤二,基于目标识别算法yolox,编译可兼容多核深度学习处理器指令运行的目标识别算法网络模型,
步骤三、将编译完成的网络模型指令文件yolox.xmodel部署到MPSOC平台FPGA端DPU模块中执行。
可选的,所述步骤1包括:
在FPGA端设计多核DPU数据计算模块,添加两个DPUCZDX8G IP核与ZYNQUltraScale+MPSOC IP,将DPUCZDX8G IP核与ZYNQ UltraScale+MPSOC IP核进行连接,每个个DPUCZDX8G IP核包括三个AXI总线主接口与一个AXI总线从接口,其中,三个AXI总线主接口中包含两个数据接口与一个指令接口,分别用来获取数据与指令;
将两个DPUCZDX8G IP核的AXI总线数据主接口分别连接ZYNQ UltraScale+MPSOCIP核的高速AXI总线接口S_AXI_HP0_FPD、S_AXI_HP1_FPD、S_AXI_HP2_FPD和S_AXI_HP3_FPD;
将两个DPUCZDX8G IP核的AXI总线指令主接口通过AXI总线interconnect共同连接到ZYNQ UltraScale+MPSOC IP核的S_AXI_LPD接口;
再将所有个DPUCZDX8G IP核AXI总线从接口通过AXI interconnect连接到ZYNQUltraScale+MPSOC IP核的M_AXI_HPM0_LPD接口,CPU端通过M_AXI_HPM0_LPD接口来访问深度学习处理器寄存器空间;
DPUCZDX8G IP核与ZYNQ UltraScale+MPSOC核通过AXI总线交互设计构成目标识别系统深度学习处理器计算模块。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于苏州长风航空电子有限公司,未经苏州长风航空电子有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211702795.1/2.html,转载请声明来源钻瓜专利网。