[发明专利]一种深度神经网络模型的构建方法和装置有效
申请号: | 201810465595.6 | 申请日: | 2018-05-16 |
公开(公告)号: | CN108921282B | 公开(公告)日: | 2022-05-31 |
发明(设计)人: | 何文奇;海涵;彭翔;刘晓利;廖美华;卢大江 | 申请(专利权)人: | 深圳大学 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08 |
代理公司: | 深圳市恒申知识产权事务所(普通合伙) 44312 | 代理人: | 王利彬 |
地址: | 518060 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 深度 神经网络 模型 构建 方法 装置 | ||
1.一种深度神经网络模型的构建方法,其特征在于,所述方法包括:
步骤A、对多组原始数据进行随机相位加密得到训练数据;其中,所述原始数据为实值图像,随机相位加密过程包括:M1随机相位掩膜紧贴实值图像位于第一个透镜的前焦面上,再在傅里叶变换面上放置M2随机相位掩膜,经过第二个透镜做一次逆傅里叶变换;
步骤B、利用所述训练数据训练第i-1深度神经网络模型,得到第i深度神经网络模型,及所述训练数据输入所述第i深度神经网络模型后的第i输出结果,并将所述第i输出结果与所述训练数据对应的原始数据进行比对,得到第i比对结果,所述i的初始值为1,且第0深度神经网络模型为初始模型;
步骤C、当所述第i比对结果满足预设收敛条件时,确定所述第i深度神经网络模型为构建的深度神经网络模型;
步骤H、对多组原始数据进行随机相位加密得到测试数据;
步骤L、所述测试数据输入构建的所述深度神经网络模型中,使所述测试数据在第一重塑层进行数组重塑,输出第一重塑数据,所述深度神经网络模型包括所述第一重塑层、三层隐藏层、输出层和第二重塑层;
步骤M、所述第一重塑数据输入由若干神经元组成的所述三层隐藏层,并输入所述输出层输出处理数据,所述处理数据输入所述第二重塑层进行数组重塑,输出第二重塑数据,所述第二重塑数据为所述测试数据输入构建的所述深度神经网络模型后得到的测试输出结果;
步骤N、利用相关系数函数计算所述第二重塑数据与所述测试数据对应的原始数据之间的相关度;
步骤J、当所述相关度大于等于预设相关系数时,确定所述深度神经网络模型为正确的解密模型;
步骤K、当所述相关度小于所述预设相关系数时,返回执行所述步骤A;
步骤D、当所述第i比对结果不满足所述预设收敛条件时,令i=i+1,返回执行所述步骤B。
2.根据权利要求1所述的方法,其特征在于,所述步骤B具体包括以下步骤:
步骤E、将所述训练数据输入第i-1深度神经网络模型中,使所述训练数据在第一重塑层进行数组重塑,输出第一重塑数据,所述第i-1深度神经网络模型包括所述第一重塑层、三层隐藏层、输出层和第二重塑层;
步骤F、所述第一重塑数据输入由若干神经元组成的所述三层隐藏层,并输入所述输出层输出处理数据,所述处理数据输入所述第二重塑层进行数组重塑,输出第二重塑数据,所述神经元的激活函数为线性整流函数,且所述三层隐藏层中的神经元个数与所述第一重塑数据的格式对应,所述第二重塑数据为所述训练数据输入所述第i-1深度神经网络模型后的第i-1输出结果,且所述第二重塑数据的格式与所述训练数据的格式相同;
步骤G、基于均方差函数与随机梯度下降函数,对所述第二重塑数据与所述训练数据对应的原始数据进行比对,得到比对结果,利用所述比对结果优化更新所述第i-1深度神经网络模型,得到第i深度神经网络模型。
3.根据权利要求1所述的方法,其特征在于,所述随机相位加密的计算公式为:
E=LCT(LCT(LCT(P×M1)×M2)×…×Mn)
其中,E表示所述训练数据或者所述测试数据,LCT表示线性正则变换,P表示所述原始数据,M1,M2,…,Mn表示随机相位掩膜,n为正整数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳大学,未经深圳大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810465595.6/1.html,转载请声明来源钻瓜专利网。