[发明专利]视觉任务的处理方法、装置和电子系统有效
申请号: | 202010039683.7 | 申请日: | 2020-01-14 |
公开(公告)号: | CN111275183B | 公开(公告)日: | 2023-06-16 |
发明(设计)人: | 戴雨辰;危夷晨;陈曦 | 申请(专利权)人: | 北京迈格威科技有限公司 |
主分类号: | G06N3/096 | 分类号: | G06N3/096;G06N3/0464;G06N3/044 |
代理公司: | 北京超凡宏宇专利代理事务所(特殊普通合伙) 11463 | 代理人: | 何少岩 |
地址: | 100000 北京市海淀区科*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 视觉 任务 处理 方法 装置 电子 系统 | ||
本发明提供了一种视觉任务的处理方法、装置和电子系统,用于提取待处理图像的特征数据的网络模型,通过预设的教师模型和特征损失函数训练;其中,该特征损失函数用于根据所述教师模型输出的特征数据的距离分布特征,确定所述网络模型输出的特征数据的距离分布特征的损失值。该方式中,通过特征损失函数,可以让网络模型学习教师模型输出的特征数据的空间距离分布特征,从而使网络模型的性能逐渐接近于教师模型,达到训练网络模型的目的;由于特征数据的空间距离分布特征与模型的输入输出无关,即使网络模型和教师模型二者之间的输入数据和输出数据结构不同,也能通过教师模型训练网络模型,因而该方式具有更广泛的适用性。
技术领域
本发明涉及神经网络技术领域,尤其是涉及一种视觉任务的处理方法、装置和电子系统。
背景技术
模型蒸馏是一种新兴的模型训练方式,其主要思想是通过一个高准确率的大模型作为教师模型,指导训练一个小模型,该小模型即学生模型。在训练过程中,教师模型的知识可以转移给学生模型,由于学生模型本身结构简单、参量较少,这时又学习到的高准确率的教师模型的知识,因此这种方式可以保证学生模型具有较快的运行速度的同时,也具有较高的准确率。
相关技术中的模型蒸馏,可以将教师模型输出的样本的特征,作为输入至学生模型的样本的样本标签,目的是使学生模型输出的特征尽可能地接近于教师模型输出的特征,从而逐步提升学生模型的性能。但是,该方式大多要求教师模型和学生模型的输入输出相一致,对于输入输出相差较大的教师模型和学生模型,则难以通过教师模型指导训练该学生模型,因此该方式具有较大的局限性。
发明内容
本发明的目的在于提供一种视觉任务的处理方法、装置和电子系统,当学生模型和教师模型二者之间的输入数据和输出数据结构不同,或者模型结构不同,也能通过教师模型训练学生模型,使通过教师模型训练学生模型的方式具有更广泛的适用性。
第一方面,本发明实施例提供了一种视觉任务的处理方法,该方法包括:获取待处理图像,将待处理图像输入至预先训练完成的网络模型中,输出待处理图像对应的特征数据;基于特征数据,完成预设的视觉任务;其中,网络模型通过预设的教师模型和特征损失函数训练得到;特征损失函数用于:根据教师模型输出的特征数据的距离分布特征,确定网络模型输出的特征数据的距离分布特征的损失值。
进一步的,损失值包括:网络模型对相同类型的样本图像输出的特征数据的距离分布特征的第一损失值,和/或,网络模型对不同类型的样本图像输出的特征数据的距离分布特征的第二损失值。
进一步的,损失值等于:网络模型对相同类型的样本图像输出的特征数据的距离分布特征的第一损失值乘以预设第一权重的乘积,加上网络模型对不同类型的样本图像输出的特征数据的距离分布特征的第二损失值乘以预设第二权重的乘积;其中,第一权重和第二权重的和为一。
进一步的,当损失值包括网络模型对相同类型的样本图像输出的特征数据的距离分布特征的第一损失值,第一损失值通过下述方式计算得到:获取网络模型针对预设多对第一样本对输出的第一特征矩阵,和教师模型针对多对第一样本对输出的第二特征矩阵;其中,第一样本对包括多个相同类型的样本;计算第一特征矩阵的距离分布特征,以及第二特征矩阵的距离分布特征;根据第一特征矩阵的距离分布特征和第二特征矩阵的距离分布特征,确定第一损失值。
进一步的,第一样本对包括相同类型的第一样本和第二样本;第一特征矩阵包括针对于第一样本的子特征矩阵,以及针对于第二样本的子特征矩阵;计算第一特征矩阵的距离分布特征的步骤,包括:计算第一特征矩阵中的第一样本的子特征矩阵和第二样本的子特征矩阵之间的第一距离矩阵;对第一距离矩阵进行归一化处理,将归一化处理后的第一距离矩阵确定为第一特征矩阵的距离分布特征。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京迈格威科技有限公司,未经北京迈格威科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010039683.7/2.html,转载请声明来源钻瓜专利网。