[发明专利]深度神经网络训练方法和系统、电子设备有效
申请号: | 201611097445.1 | 申请日: | 2016-12-02 |
公开(公告)号: | CN108154222B | 公开(公告)日: | 2020-08-11 |
发明(设计)人: | 石建萍;赵恒爽 | 申请(专利权)人: | 北京市商汤科技开发有限公司 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08 |
代理公司: | 北京思源智汇知识产权代理有限公司 11657 | 代理人: | 毛丽琴 |
地址: | 100084 北京市海淀区中*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 深度 神经网络 训练 方法 系统 电子设备 | ||
1.一种深度神经网络训练方法,其特征在于,包括:
在前向传播过程中,利用深度神经网络模型对样本图像进行场景分析检测,获得所述深度神经网络模型的中间网络层输出的第一场景分析预测结果以及末个网络层输出的第二场景分析预测结果;
确定所述第一场景分析预测结果和所述样本图像的场景分析标注信息之间的第一差异、以及所述第二场景分析预测结果和所述样本图像的场景分析标注信息之间的第二差异;
在反向传播过程中,根据所述第一差异调整第一网络层的参数、并根据所述第一差异和所述第二差异调整第二网络层的参数;其中:所述第二网络层包括所述深度神经网络模型中位于所述中间网络层和所述末个网络层之间的至少一网络层,所述第一网络层包括所述深度神经网络模型中至少一除所述第二网络层之外的其他网络层。
2.根据权利要求1所述的方法,其特征在于,所述中间网络层包括所述深度神经网络模型中的多个网络层;不同的中间网络层进行参数调整的网络层不同。
3.根据权利要求1所述的方法,其特征在于,所述深度神经网络模型的网络层数量为N,所述中间网络层为所述深度神经网络模型中在前向传播方向上的第M层;其中,N的取值为大于2的整数,M的取值为大于2、且小于N的整数。
4.根据权利要求3所述的方法,其特征在于,M的取值大于N/2。
5.根据权利要求1所述的方法,其特征在于,根据所述第一差异和所述第二差异调整第二网络层的参数,包括:
为所述第一差异和所述第二差异确定不同的权重;
根据所述第一差异及其权重、所述第二差异及其权重调整所述第二网络层的参数。
6.根据权利要求5所述的方法,其特征在于,所述第一差异的权重小于所述第二差异的权重。
7.根据权利要求1所述的方法,其特征在于,所述中间网络层包括辅助分类层;
所述第一场景分析预测结果包括所述辅助分类层输出的对所述样本图像中各像素的场景分类预测结果。
8.根据权利要求7所述的方法,其特征在于,所述方法还包括:
对所述深度神经网络模型网络训练完成后,去除所述辅助分类层。
9.根据权利要求7所述的方法,其特征在于,确定所述第一场景分析预测结果和所述样本图像的场景分析标注信息之间的第一差异,包括:
利用第一分类代价函数层获取所述第一场景分析预测结果和所述场景分析标注信息中对所述样本图像中各像素的场景分类预测结果之间的差异,作为所述第一差异;
对所述深度神经网络模型网络训练完成后,去除所述第一分类代价函数层。
10.根据权利要求9所述的方法,其特征在于,所述第一分类代价函数层包括:回归softmax损失函数、熵函数或者支持向量机SVM代价函数。
11.根据权利要求1所述的方法,其特征在于,所述第二场景分析预测结果包括所述末个网络层输出的对所述样本图像中各像素的场景分类预测结果。
12.根据权利要求11所述的方法,其特征在于,确定所述第二场景分析预测结果和所述样本图像的场景分析标注信息之间的第二差异包括:
利用第二分类代价函数层获取第二场景分析预测结果和所述场景分析标注信息中对所述样本图像中各像素的场景分类预测结果之间的差异,作为所述第二差异。
13.根据权利要求12所述的方法,其特征在于,所述方法还包括:
对所述深度神经网络模型网络训练完成后,去除所述第二分类代价函数层。
14.根据权利要求12所述的方法,其特征在于,所述第二分类代价函数层包括:回归softmax损失函数、熵函数或者支持向量机SVM代价函数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京市商汤科技开发有限公司,未经北京市商汤科技开发有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201611097445.1/1.html,转载请声明来源钻瓜专利网。